Le succès des applis de scans alimentaires comme Yuka à l’ère de la défiance

Source: The Conversation – France in French (3) – By Jean-Loup Richet, Maître de conférences et co-directeur de la Chaire Risques, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne

Portées par la popularité de Yuka ou d’Open Food Facts, les applications de scan alimentaire connaissent un réel engouement. Une étude analyse les ressorts du succès de ces outils numériques qui fournissent des informations nutritionnelles perçues comme plus indépendantes que celles présentes sur les emballages et délivrées soit par les pouvoirs publics (par exemple, l’échelle Nutri-Score) soit par les marques.


La confiance du public envers les autorités et les grands industriels de l’alimentaire s’érode, et un phénomène en témoigne : le succès fulgurant des applications de scan alimentaire. Ces outils numériques, tels que Yuka ou Open Food Facts, proposent une alternative aux étiquettes nutritionnelles officielles en évaluant les produits au moyen de données collaboratives ouvertes ; elles sont ainsi perçues comme plus indépendantes que les systèmes officiels.

Preuve de leur succès, on apprend à l’automne 2025 que l’application Yuka (créée en France en 2017, ndlr) est désormais plébiscitée aussi aux États-Unis. Robert Francis Kennedy Jr, le ministre de la santé de l’administration Trump, en serait un utilisateur revendiqué.

Une enquête autour des sources d’information nutritionnelle

La source de l’information apparaît essentielle à l’ère de la méfiance. C’est ce que confirme notre enquête publiée dans Psychology & Marketing. Dans une première phase exploratoire, 86 personnes ont été interrogées autour de leurs usages d’applications de scan alimentaire, ce qui nous a permis de confirmer l’engouement pour l’appli Yuka.

Nous avons ensuite mené une analyse quantitative du contenu de plus de 16 000 avis en ligne concernant spécifiquement Yuka et, enfin, mesuré l’effet de deux types de signaux nutritionnels (soit apposés sur le devant des emballages type Nutri-Score, soit obtenus à l’aide d’une application de scan des aliments comme Yuka).

Les résultats de notre enquête révèlent que 77 % des participants associent les labels nutritionnels officiels (comme le Nutri-Score) aux grands acteurs de l’industrie agroalimentaire, tandis qu’ils ne sont que 27 % à percevoir les applis de scan comme émanant de ces dominants.




À lire aussi :
Pourquoi Danone retire le Nutri-Score de ses yaourts à boire


À noter que cette perception peut être éloignée de la réalité. Le Nutri-Score, par exemple, n’est pas affilié aux marques de la grande distribution. Il a été développé par le ministère français de la santé qui s’est appuyé sur les travaux d’une équipe de recherche publique ainsi que sur l’expertise de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) et du Haut Conseil de la santé publique (HCSP).

C’est quoi, le Nutri-Score ?

  • Le Nutri-Score est un logo apposé, sur la base du volontariat, sur l’emballage de produits alimentaires pour informer le consommateur sur leur qualité nutritionnelle.
  • L’évaluation s’appuie sur une échelle de cinq couleurs allant du vert foncé au orange foncé. Chaque couleur est associée à une lettre, de A à E.
  • La note est attribuée en fonction des nutriments et aliments à favoriser dans le produit pour leurs qualités nutritionnelles (fibres, protéines, fruits, légumes, légumes secs) et de ceux à éviter (énergie, acides gras saturés, sucres, sel et édulcorants pour les boissons).

De son côté, la base de données Open Food Facts (créée en France en 2012, ndlr) apparaît comme un projet collaboratif avec, aux manettes, une association à but non lucratif. Quant à l’application Yuka, elle a été créée par une start-up.

Des applis nutritionnelles perçues comme plus indépendantes

Ces applications sont vues comme liées à de plus petites entités qui, de ce fait, apparaissent comme plus indépendantes. Cette différence de perception de la source engendre un véritable fossé de confiance entre les deux types de signaux. Les consommateurs les plus défiants se montrent plus enclins à se fier à une application indépendante qu’à une étiquette apposée par l’industrie ou par le gouvernement (Nutri-Score), accordant ainsi un avantage de confiance aux premières.

Ce phénomène, comparable à un effet « David contre Goliath », illustre la manière dont la défiance envers, à la fois, les autorités publiques et les grandes entreprises alimente le succès de solutions perçues comme plus neutres. Plus largement, dans un climat où rumeurs et désinformation prospèrent, beaucoup préfèrent la transparence perçue d’une application citoyenne aux communications officielles.

Dimension participative et « volet militant »

Outre la question de la confiance, l’attrait des applications de scan tient aussi à l’empowerment ou empouvoirement (autonomisation) qu’elles procurent aux utilisateurs. L’empowerment du consommateur se traduit par un sentiment accru de contrôle, une meilleure compréhension de son environnement et une participation plus active aux décisions. En scannant un produit pour obtenir instantanément une évaluation, le citoyen reprend la main sur son alimentation au lieu de subir passivement l’information fournie par le fabricant.

Cette dimension participative a même un volet qui apparaît militant : Yuka, par exemple, est souvent présentée comme l’arme du « petit consommateur » contre le « géant agro-industriel ». Ce faisant, les applications de scan contribuent à autonomiser les consommateurs qui peuvent ainsi défier les messages marketing et exiger des comptes sur la qualité des produits.

Des questions de gouvernance algorithmique

Néanmoins, cet empowerment s’accompagne de nouvelles questions de gouvernance algorithmique. En effet, le pouvoir d’évaluer les produits bascule des acteurs traditionnels vers ces plateformes et leurs algorithmes. Qui définit les critères du score nutritionnel ? Quelle transparence sur la méthode de calcul ? Ces applications concentrent un pouvoir informationnel grandissant : elles peuvent, d’un simple score, influer sur l’image d’une marque, notamment celles à la notoriété modeste qui ne peuvent contrer une mauvaise note nutritionnelle.

Garantir la sécurité et l’intégrité de l’information qu’elles fournissent devient dès lors un enjeu essentiel. À mesure que le public place sa confiance dans ces nouveaux outils, il importe de s’assurer que leurs algorithmes restent fiables, impartiaux et responsables. Faute de quoi, l’espoir d’une consommation mieux informée pourrait être trahi par un excès de pouvoir technologique non contrôlé.

À titre d’exemple, l’algorithme sur lequel s’appuie le Nutri-Score est réévalué en fonction de l’avancée des connaissances sur l’effet sanitaire de certains nutriments et ce, en toute transparence. En mars 2025, une nouvelle version de cet algorithme Nutri-Score est ainsi entrée en vigueur.

La montée en puissance des applications de scan alimentaire est le reflet d’une perte de confiance envers les institutions, mais aussi d’une aspiration à une information plus transparente et participative. Loin d’être de simples gadgets, ces applis peuvent servir de complément utile aux politiques de santé publique (et non s’y substituer !) pour reconstruire la confiance avec le consommateur.

En redonnant du pouvoir au citoyen tout en encadrant rigoureusement la fiabilité des algorithmes, il est possible de conjuguer innovation numérique et intérêt général. Réconcilier information indépendante et gouvernance responsable jouera un rôle clé pour que, demain, confiance et choix éclairés aillent de pair.

The Conversation

Marie-Eve Laporte a reçu des financements de l’Agence nationale de la recherche (ANR).

Béatrice Parguel, Camille Cornudet, Fabienne Berger-Remy et Jean-Loup Richet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Le succès des applis de scans alimentaires comme Yuka à l’ère de la défiance – https://theconversation.com/le-succes-des-applis-de-scans-alimentaires-comme-yuka-a-lere-de-la-defiance-267489

Comment les enfants du baby-boom vivront-ils la fin de vie au Québec ?

Source: The Conversation – in French – By Jean-Ignace Olazabal, Responsable de programmes, Université de Montréal

Les personnes âgées de 65 ans et plus (environ 2 250 000 personnes en 2033) représenteront 25 % de la population de la province de Québec au début des années 2030, les enfants du baby-boom composant dès lors la presque totalité de la population aînée.

Le taux de mortalité augmentera cela dit progressivement à partir de 2036, avec plus de 100 000 décès par année, et dépassera de loin le nombre de naissances, maintenant le Québec dans un contexte de post-transition démographique qui pourrait provoquer un déclin de la population globale.

Quoi qu’il en soit, l’augmentation de la longévité prévue fera que ces nouveaux vieux, les enfants du baby-boom, seront plus nombreux à devenir octogénaires et nonagénaires que ceux des générations précédentes. En effet, les 80+ pourraient représenter près de 8 % de la population en 2033, alors que l’espérance de vie prévue par Statistique Canada sera de 82 ans pour les hommes et de 86 ans pour les femmes.

Il est clair que la balise 65+ n’est plus la même qu’il y a 50 ans, et que la vieillesse est désormais un cycle de vie long, avec les enjeux et défis que cela comporte. Or, paradoxe remarquable, alors que le Québec figure au palmarès des sociétés où l’espérance de vie est la plus haute, elle est également celle où la demande d’aide médicale à mourir est la plus importante.

Anthropologue de la vieillesse et du vieillissement, je suis responsable de la formation en vieillissement à la Faculté de l’apprentissage continu (FAC) de l’Université de Montréal et je m’intéresse aux aspects sociaux du vieillissement des enfants du baby-boom au Québec.


Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.


Des vieux nouveaux genres ?

Si le baby-boom est un phénomène démographique englobant les personnes nées entre la fin de la Seconde Guerre mondiale et le milieu des années 1960, il est convenu, ici comme en France ou aux États-Unis, de réserver le nom baby-boomers aux personnes nées entre 1946 (1943 au Québec) et 1958.

Dans son livre intitulé Le fossé des générations, publié en 1971, l’anthropologue Margaret Mead disait des baby-boomers états-uniens qu’ils constituaient une génération préfigurative, en ce sens qu’ils ont inversé les termes de la transmission intergénérationnelle, les jeunes instruisant leurs aînés et, du coup, leurs pairs, plutôt que l’inverse, défiant ainsi la tradition.

Cette inscription en faux contre les valeurs parentales et ancestrales aura permis l’essor de la contreculture dans les années 1960-1970, comme l’expliquent les sociologues Jean-François Sirinelli dans le cas de la France et Doug Owram dans celui du Canada, à travers des valeurs jeunes (la musique pop, la consommation de drogues récréatives ou l’amour libre par exemple). Elle aura également permis de rompre avec la traditionnelle transmission des rôles et des statuts au sein de la famille, comme le souligne le sociologue québécois Daniel Fournier.

Un effet de génération

On parle ici d’un effet de génération au sens sociologique du terme. Au Québec, les baby-boomers seraient, selon le sociologue québécois Jacques Hamel, ceux qui constituent cette fraction des enfants du baby-boom ayant souscrit au slogan « qui s’instruit, s’enrichit » et qui détiennent ces « diplômes universitaires, expression par excellence de cette modernisation » que connut le Québec dans les années 1960.

Ces derniers auront fomenté, sous l’égide des aînés ayant réfléchi la Révolution tranquille (soit les René Lévesque, Paul Gérin-Lajoie et autres révolutionnaires tranquilles), des transformations majeures au sein d’institutions sociales et d’idéaux aussi fondamentaux que la famille (en la réinventant), la nation (en la rêvant) ou la religion catholique (en la reniant de façon massive).

Le sociologue américain Leonard Steinhorn reconnaît dans cette génération des personnes aux valeurs progressistes ayant tendance à une plus grande reconnaissance de la diversité culturelle, des nouvelles mœurs (comme la légalisation du mariage homosexuel, de l’aide médicale à mourir, ou du cannabis récréatif), ou de l’égalité entre les hommes et les femmes, par rapport aux générations précédentes.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Mais ce qui distingue surtout ces baby-boomers vieillissants des générations de personnes âgées d’antan, c’est la persévérance dans la conviction de la primauté du sujet, par delà les conventions sociales, même dans la dépendance et la fin de vie.

L’effet de génération, bien qu’il diffère chez chacun des membres d’un même ensemble générationnel, est un produit de l’histoire et des conditionnements sociohistoriques auxquels le sujet aura été exposé au cours des premières décennies de sa vie. Les premières générations du baby-boom ont dès leur jeune âge adulte participé activement à la laïcité de l’État et de l’espace public et privé, et souscrit à l’État technobureaucratique promu par la Révolution tranquille, libérant le sujet des attaches communautaristes pour le rendre autonome.

Les enfants du baby-boom et la fin de vie

L’affranchissement des contraintes religieuses chez les Québécois d’origine canadienne-française, le difficile accès aux soins palliatifs pour les personnes âgées et, surtout, la volonté de contrôler sa propre destinée, sont autant de facteurs qui risquent d’influer sur la fin de vie et la mort des enfants du baby-boom au Québec.

En 2023, 7 % des personnes décédées au Québec – majoritairement des personnes âgées – ont choisi la mort médicalement assistée, dans un contexte d’acceptation sociale presque unanime. En effet, 90 % de la population québécoise appuie la loi sur l’aide médicale à mourir, selon un sondage Ipsos, soit le plus haut taux au Canada.

La détresse existentielle face à la fin de vie et le refus de la souffrance et de l’agonie pourraient expliquer l’engouement des enfants du baby-boom pour ce qu’ils considèrent une mort digne.

Or le grand volume de personnes qui constituent l’ensemble des cohortes du baby-boom, soit les personnes nées entre 1943 et 1965, invite à réfléchir au sort qui sera réservé à beaucoup d’entre eux et elles quant à la qualité et à la quantité des soins et des services publics qui leur seront alloués. Étant donné le contexte plutôt critique du Réseau québécois de la santé et des services sociaux, se pose la question des conditions dans lesquelles se dérouleront ces nombreux décès, estimés à plus de 100 000 par année dès 2036.

Pas tous égaux devant la vieillesse

Certes, une bonne proportion de personnes parmi ce grand ensemble populationnel seront effectivement à l’aise financièrement et jouiront d’un bon état de santé grâce à leur niveau d’éducation, à de généreuses pensions et autres fonds de retraite, à de saines habitudes de vie, et à la biomédecine. Cela étant dit, une proportion non négligeable vieillira appauvrie et malade. Les inégalités sociales de santé demeureront importantes au sein de ces nouvelles générations de personnes âgées.

Les hommes bénéficieront globalement d’un avantage sur les femmes en termes de conditions de retraite et de qualité de vie, tout comme les natifs par rapport aux immigrants, soulignent les démographes Patrik Marier, Yves Carrière et Jonathan Purenne dans un chapitre de l’ouvrage Les vieillissements sous la loupe. Entre mythes et réalités. Cela aura une incidence sur les conditions d’habitation et de résidence, sur les coûts privés en santé et sur la qualité du vieillissement en général.

Ces inégalités sociales de santé feront que les dernières années de vie de plusieurs, des femmes surtout, risquent de l’être en mauvaise santé, appauvries et sans forcément un entourage de qualité. Mais vivre plus longtemps à n’importe quel prix n’est pas le souhait de beaucoup parmi les enfants du baby-boom, et ce indépendamment de leur statut socioéconomique.

L’aide médicale à mourir deviendra-t-elle, dès lors, un acte médical ordinaire, alors que le système public de santé et de services sociaux connaîtra une pression accrue ? Quoi qu’il en soit, ce geste médical ultime devrait toujours jouir d’une popularité incontestable parmi les nouveaux vieux Québécois, du moins ceux d’origine canadienne-française qui ont rompu avec le catholicisme, ce qui pourrait contribuer à freiner l’augmentation de l’espérance de vie au Québec.

Mais encore faut-il que la fin de vie se déroule également dans la dignité.

La Conversation Canada

Jean-Ignace Olazabal a reçu des financements du CRSHC, IRSC.

ref. Comment les enfants du baby-boom vivront-ils la fin de vie au Québec ? – https://theconversation.com/comment-les-enfants-du-baby-boom-vivront-ils-la-fin-de-vie-au-quebec-252148

Le succès des applis de scans alimentaires à l’ère de la défiance

Source: The Conversation – France in French (3) – By Jean-Loup Richet, Maître de conférences et co-directeur de la Chaire Risques, IAE Paris – Sorbonne Business School; Université Paris 1 Panthéon-Sorbonne

Portées par la popularité de Yuka ou d’Open Food Facts, les applications de scan alimentaire connaissent un réel engouement. Une étude analyse les ressorts du succès de ces outils numériques qui fournissent des informations nutritionnelles perçues comme plus indépendantes que celles présentes sur les emballages et délivrées soit par les pouvoirs publics (par exemple, l’échelle Nutri-Score) soit par les marques.


La confiance du public envers les autorités et les grands industriels de l’alimentaire s’érode, et un phénomène en témoigne : le succès fulgurant des applications de scan alimentaire. Ces outils numériques, tels que Yuka ou Open Food Facts, proposent une alternative aux étiquettes nutritionnelles officielles en évaluant les produits au moyen de données collaboratives ouvertes ; elles sont ainsi perçues comme plus indépendantes que les systèmes officiels.

Preuve de leur succès, on apprend à l’automne 2025 que l’application Yuka (créée en France en 2017, ndlr) est désormais plébiscitée aussi aux États-Unis. Robert Francis Kennedy Jr, le ministre de la santé de l’administration Trump, en serait un utilisateur revendiqué.

Une enquête autour des sources d’information nutritionnelle

La source de l’information apparaît essentielle à l’ère de la méfiance. C’est ce que confirme notre enquête publiée dans Psychology & Marketing. Dans une première phase exploratoire, 86 personnes ont été interrogées autour de leurs usages d’applications de scan alimentaire, ce qui nous a permis de confirmer l’engouement pour l’appli Yuka.

Nous avons ensuite mené une analyse quantitative du contenu de plus de 16 000 avis en ligne concernant spécifiquement Yuka et, enfin, mesuré l’effet de deux types de signaux nutritionnels (soit apposés sur le devant des emballages type Nutri-Score, soit obtenus à l’aide d’une application de scan des aliments comme Yuka).

Les résultats de notre enquête révèlent que 77 % des participants associent les labels nutritionnels officiels (comme le Nutri-Score) aux grands acteurs de l’industrie agroalimentaire, tandis qu’ils ne sont que 27 % à percevoir les applis de scan comme émanant de ces dominants.




À lire aussi :
Pourquoi Danone retire le Nutri-Score de ses yaourts à boire


À noter que cette perception peut être éloignée de la réalité. Le Nutri-Score, par exemple, n’est pas affilié aux marques de la grande distribution. Il a été développé par le ministère français de la santé qui s’est appuyé sur les travaux d’une équipe de recherche publique ainsi que sur l’expertise de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) et du Haut Conseil de la santé publique (HCSP).

C’est quoi, le Nutri-Score ?

  • Le Nutri-Score est un logo apposé, sur la base du volontariat, sur l’emballage de produits alimentaires pour informer le consommateur sur leur qualité nutritionnelle.
  • L’évaluation s’appuie sur une échelle de cinq couleurs allant du vert foncé au orange foncé. Chaque couleur est associée à une lettre, de A à E.
  • La note est attribuée en fonction des nutriments et aliments à favoriser dans le produit pour leurs qualités nutritionnelles (fibres, protéines, fruits, légumes, légumes secs) et de ceux à éviter (énergie, acides gras saturés, sucres, sel et édulcorants pour les boissons).

De son côté, la base de données Open Food Facts (créée en France en 2012, ndlr) apparaît comme un projet collaboratif avec, aux manettes, une association à but non lucratif. Quant à l’application Yuka, elle a été créée par une start-up.

Des applis nutritionnelles perçues comme plus indépendantes

Ces applications sont vues comme liées à de plus petites entités qui, de ce fait, apparaissent comme plus indépendantes. Cette différence de perception de la source engendre un véritable fossé de confiance entre les deux types de signaux. Les consommateurs les plus défiants se montrent plus enclins à se fier à une application indépendante qu’à une étiquette apposée par l’industrie ou par le gouvernement (Nutri-Score), accordant ainsi un avantage de confiance aux premières.

Ce phénomène, comparable à un effet « David contre Goliath », illustre la manière dont la défiance envers, à la fois, les autorités publiques et les grandes entreprises alimente le succès de solutions perçues comme plus neutres. Plus largement, dans un climat où rumeurs et désinformation prospèrent, beaucoup préfèrent la transparence perçue d’une application citoyenne aux communications officielles.

Dimension participative et « volet militant »

Outre la question de la confiance, l’attrait des applications de scan tient aussi à l’empowerment ou empouvoirement (autonomisation) qu’elles procurent aux utilisateurs. L’empowerment du consommateur se traduit par un sentiment accru de contrôle, une meilleure compréhension de son environnement et une participation plus active aux décisions. En scannant un produit pour obtenir instantanément une évaluation, le citoyen reprend la main sur son alimentation au lieu de subir passivement l’information fournie par le fabricant.

Cette dimension participative a même un volet qui apparaît militant : Yuka, par exemple, est souvent présentée comme l’arme du « petit consommateur » contre le « géant agro-industriel ». Ce faisant, les applications de scan contribuent à autonomiser les consommateurs qui peuvent ainsi défier les messages marketing et exiger des comptes sur la qualité des produits.

Des questions de gouvernance algorithmique

Néanmoins, cet empowerment s’accompagne de nouvelles questions de gouvernance algorithmique. En effet, le pouvoir d’évaluer les produits bascule des acteurs traditionnels vers ces plateformes et leurs algorithmes. Qui définit les critères du score nutritionnel ? Quelle transparence sur la méthode de calcul ? Ces applications concentrent un pouvoir informationnel grandissant : elles peuvent, d’un simple score, influer sur l’image d’une marque, notamment celles à la notoriété modeste qui ne peuvent contrer une mauvaise note nutritionnelle.

Garantir la sécurité et l’intégrité de l’information qu’elles fournissent devient dès lors un enjeu essentiel. À mesure que le public place sa confiance dans ces nouveaux outils, il importe de s’assurer que leurs algorithmes restent fiables, impartiaux et responsables. Faute de quoi, l’espoir d’une consommation mieux informée pourrait être trahi par un excès de pouvoir technologique non contrôlé.

À titre d’exemple, l’algorithme sur lequel s’appuie le Nutri-Score est réévalué en fonction de l’avancée des connaissances sur l’effet sanitaire de certains nutriments et ce, en toute transparence. En mars 2025, une nouvelle version de cet algorithme Nutri-Score est ainsi entrée en vigueur.

La montée en puissance des applications de scan alimentaire est le reflet d’une perte de confiance envers les institutions, mais aussi d’une aspiration à une information plus transparente et participative. Loin d’être de simples gadgets, ces applis peuvent servir de complément utile aux politiques de santé publique (et non s’y substituer !) pour reconstruire la confiance avec le consommateur.

En redonnant du pouvoir au citoyen tout en encadrant rigoureusement la fiabilité des algorithmes, il est possible de conjuguer innovation numérique et intérêt général. Réconcilier information indépendante et gouvernance responsable jouera un rôle clé pour que, demain, confiance et choix éclairés aillent de pair.

The Conversation

Marie-Eve Laporte a reçu des financements de l’Agence nationale de la recherche (ANR).

Béatrice Parguel, Camille Cornudet, Fabienne Berger-Remy et Jean-Loup Richet ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Le succès des applis de scans alimentaires à l’ère de la défiance – https://theconversation.com/le-succes-des-applis-de-scans-alimentaires-a-lere-de-la-defiance-267489

The problem with ‘mega-COPs’: can a 50,000-person conference still tackle climate change?

Source: The Conversation – France in French (3) – By Dr Hayley Walker, Assistant Professor of International Negotiation, IÉSEG School of Management

Governments from around the world will soon descend upon Belém, Brazil for the 30th Conference of the Parties (COP30) to the United Nations Framework Convention on Climate Change (UNFCCC), and with them, many actors from industry and business, civil society, research institutions, youth organisations and Indigenous Peoples’ groups, to name but a few. Since the adoption of the Paris agreement on climate change in 2015, COP participation numbers have ballooned. COP28 in Dubai was attended by 83,884 participants – a record – and while numbers fell to 54,148 at COP29 in Baku last year, they remained well above those at COP21 in Paris.

These events, which have been described as “mega-COPs”, have come under criticism for the enormous carbon footprint they generate. Research I conducted with Lisanne Groen of Open Universiteit on the participation of non-state actors identifies two further problems. First, the quantity of participants is undermining the quality of participation, as large numbers of non-state actors have to compete for a limited number of meeting rooms, side event slots, opportunities to speak publicly, and chances to engage in dialogue with decision makers. Second, the “mega-COP” trend is driving a widening gap between these actors’ expectations of participation and the realities of the process.

A fair way to downsize

When it comes to the first problem, the obvious solution is to downsize the COPs, but this is not so easy in practice. The decision to hold COP30 in the Amazonian city of Belém – difficult to access and with only 18,000 hotel beds – was thought to be an attempt to move beyond “peak COP”. With tens of thousands of people predicted to attend, some participants appear undeterred by the remote location, but the limited supply of beds has caused prices to surge, raising concerns about costs and their potential effect on the “legitimacy and quality of negotiations”, as reported by Reuters.

As the COPs have grown in size, they have generated more and more political and media attention, so that they are now seen as “the place to be”. This creates pressure on nongovernmental organisations and other non-state actors to attend. Just as the gravitational force of large bodies of mass attracts other objects to them, the mass of “mega-COPs” attracts increasing numbers of participants, in a self-reinforcing cycle that is difficult to break.

The fairest way to downsize the COPs, we argue, is by shining a spotlight on the little-known “overflow” category of participants. This category once allowed governments to add delegates to the events without their names appearing on participant lists, but these names have been publicly reported since the introduction of new transparency measures in 2023. At COP28, there were 23,740 “overflow” participants. These are not government negotiators, but often researchers or industry representatives who have close connections with governments.

COPs are intergovernmental processes: they are created by governments, for governments. Consequently, priority goes to government requests for access badges. Only once all government requests have been met can remaining badges be allocated to admitted non-state actors, which are known as “observers”. Overflow participants are therefore benefiting at the expense of these observer organisations. Pressuring governments to either limit or remove the overflow category could free up many more badges for observers while still reducing the overall number of COP participants in a more equitable manner.

An ‘expectation gap’

The second problem – the expectation gap – relates to a growing misconception of the role of non-state actors in the climate policy negotiation process. Sovereign states are the only actors with the legitimacy to negotiate and adopt international law. The role of non-state actors is to inform and advocate, not to negotiate. Yet, recent years have seen increasing calls among certain groups of non-state actors for “a seat at the table” and the expectation that they will be able to participate on an equal footing with governments. This framing is reproduced online, including via social media, and inevitably leads to frustration and disappointment when they are confronted with the realities of the intergovernmental negotiations.

We see these misaligned expectations particularly in non-state actors who are newcomers to the process. The “mega-COPs” attract more and more first-time participants, who may not have the resources, including know-how and contacts, to effectively reach policymakers. These participants’ growing disillusionment undermines the legitimacy of the COPs – a precious commodity at a geopolitical moment when they are facing challenges from the new US administration – but also risks wasting the valuable ideas and enthusiasm that the newcomers bring.

Focusing on implementation

We see two solutions. First, capacity-building initiatives can build awareness around the intergovernmental nature of the negotiations, and help new participants to engage effectively. One such initiative is the UNFCCC’s “Observer Handbook”. Many organisations and individuals produce their own resources to help first-time participants understand how the process works and how to get involved. Second, and more fundamentally, we need to channel the political, media and public attention away from the negotiations and toward the vital work of climate policy implementation.

COPs are much more than just negotiations – they are also a forum for bringing together the many actors that implement climate action on the ground to learn from each other and drive momentum. These activities, which take place in a dedicated zone of the COP called the “Action Agenda”, are of the utmost importance now that the negotiations on the Paris agreement have concluded and a new chapter focused on implementation begins. Whereas the role for non-state actors in the intergovernmental negotiations is rather limited, when it comes to implementation, their role is central. The actions of cities, regions, businesses, civil society groups and other NSAs can help bridge the gap between emissions-reduction targets in government pledges and the cuts that will be necessary to reach them.

The key issue, therefore, is to divert energy and attention toward the Action Agenda and policy implementation, to make them big enough to exert their own gravitational pull and set in motion positive, self-reinforcing dynamics for climate action. We are heartened to see the Brazilian presidency labelling COP30 as “the COP of implementation” and calling for “Mutirão”, a collective sense of engagement and on-the-ground action that does not require a physical presence in Belém. This addresses both problems with the “mega-COPs” and offers exciting encouragement to channel the groundswell of energy to where it is most needed.


A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!


The Conversation

Dr Hayley Walker ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. The problem with ‘mega-COPs’: can a 50,000-person conference still tackle climate change? – https://theconversation.com/the-problem-with-mega-cops-can-a-50-000-person-conference-still-tackle-climate-change-268944

The Conversation France obtient la certification Journalism Trust Initiative (JTI)

Source: The Conversation – in French – By Caroline Nourry, Directrice générale, The Conversation

The Conversation obtient la certification JTI Shutterstock

The Conversation France est fier d’annoncer sa certification Journalism Trust Initiative (JTI). Ce label reconnaît notre engagement pour un journalisme de confiance, indépendant, transparent et rigoureux.


Vous êtes, chaque mois, des millions de lecteurs à nous lire et à nous faire confiance pour vous éclairer sur les enjeux complexes de notre époque.
Dans un contexte où la désinformation se propage et où la confiance dans les médias est de plus en plus fragilisée, nous sommes particulièrement heureux de vous faire part de notre certification “Journalism Trust Initiative”.

Ce label international, créé par Reporters Sans Frontières, et élaboré par un comité de 130 experts des médias, de la régulation et des technologies, récompense les rédactions respectant les plus hauts standards d’éthique, d’indépendance et de transparence.

Pour obtenir cette certification, nos équipes ont mené un travail de fond : examiner et renforcer nos pratiques éditoriales, nos processus de vérification de l’information, notre gouvernance et notre transparence.

Cette démarche a permis de confirmer que notre journalisme est :

  • Indépendant, libre de toute influence publicitaire ou politique ;
  • Transparent, avec des partenariats et soutiens financiers rendus publics ;
  • Fiable, grâce à la rigueur scientifique de nos auteurs, au travail de nos journalistes, et à la supervision de notre comité éditorial.

Cette certification JTI n’est pas seulement un label : elle reflète notre engagement à fournir une information indépendante, rigoureuse, basée sur les faits et accessible à tous. Notre rapport de transparence est disponible ici.

Merci pour votre fidélité et votre soutien, qui permettent à ce travail en coulisses de prendre vie chaque jour. Grâce à vous, The Conversation peut continuer à nourrir le débat public et à mieux répondre aux enjeux démocratiques de fiabilité et d’indépendance de l’information.

The Conversation

ref. The Conversation France obtient la certification Journalism Trust Initiative (JTI) – https://theconversation.com/the-conversation-france-obtient-la-certification-journalism-trust-initiative-jti-267758

L’urbanisme pervers de la « reconstruction » de Gaza

Source: The Conversation – in French – By Marco Cremaschi, Professeur d’urbanisme, Centre d’études européennes et École urbaine, Sciences Po

Le plan de « requalification urbaine » de Gaza, rédigé par des consultants américains et cité dans la proposition d’« accord de paix » de Donald Trump, dessine un avenir inquiétant pour la ville. Loin d’être une exception, il révèle une logique déjà à l’œuvre dans de nombreuses métropoles contemporaines. Comme toujours, le diable se cache dans les détails : l’urbanisme devient le langage du pouvoir économique dont la victime collatérale est l’idée même de la ville.


Dès le premier mandat de Donald Trump, son gendre Jared Kushner avait noué des relations d’affaires avec d’importants entrepreneurs saoudiens et qataris. Ces derniers avaient financé – et probablement sauvé de la faillite – une de ses entreprises immobilières à Manhattan, et soutenu ensuite la société qu’il a fondée après avoir quitté l’administration de son beau-père.

Aujourd’hui, Kushner ne représente plus le gouvernement américain : il n’est qu’un homme d’affaires, qui se trouve être proche au président. Son rôle diplomatique, aux côtés de l’envoyé spécial des États-Unis au Moyen-Orient, l’investisseur immobilier Steve Witkoff, est purement officieux, et il n’a naturellement aucun compte à rendre sur les conflits d’intérêts liés à ses activités économiques. Ce chevauchement complet entre réseaux diplomatiques et réseaux d’affaires illustre un enchevêtrement politico-économique dont la logique est au cœur même du projet pour Gaza.

Kushner en avait déjà formulé la ligne directrice il y a longtemps : la côte de Gaza constitue une opportunité immobilière. Pourtant, ses habitants doivent être relogés, par exemple quelque part dans le désert du Néguev. Pour en discuter, Trump a réuni à la Maison Blanche Witkoff, Kushner et l’ancien premier ministre britannique Tony Blair à la fin du mois d’août 2025. Selon certains analystes, la Gaza Humanitarian Foundation – dirigée par Johnnie Moore, un évangélique allié de la Maison Blanche – a alors élaboré le plan, ensuite publié par le Washington Post. Présenté comme un exercice technique sophistiqué, le plan est également cité dans le texte de l’accord de paix proposé.

Composé de quelque quarante diapositives riches en chiffres mais pauvres en images, ce document cherche à démontrer la « faisabilité » de la reconstruction tout en ignorant la tragédie humaine des habitants de Gaza et en effaçant la dimension politique. Son seul horizon est la rentabilité financière d’un vaste projet calqué sur le modèle de Dubaï.

Gaza, une approche immobilière

Ce document mérite l’attention non pour sa valeur morale – inexistante – mais parce qu’il illustre la manière dont le capitalisme financier dicte désormais la grammaire même de la vie sociale. Le « projet de paix » de Trump remplace le pacifisme marchand de la mondialisation par une pax imperialis d’inspiration romaine : d’abord l’anéantissement, ensuite le profit. Ce modèle, qui rappelle les affaires immobilières de Kushner dans le Golfe, conçoit Gaza comme un site de requalification géopolitique et urbaine, et non comme un espace habité. D’où l’accent mis sur les infrastructures et le design urbain : un développement fondé sur des tableaux Excel, des rendements attendus et les clichés du marketing d’entreprise.

Gaza n’est plus envisagée comme une ville ou un territoire, mais comme un nœud logistique reliant Israël, l’Arabie saoudite et la Méditerranée – un corridor global hors taxes. Le plan laisse entendre que le rapprochement saoudo-israélien est plus solide qu’on ne le croit, du moins vu de Washington. Le pétrole et les terres rares venant d’Arabie et de l’océan Indien atteindraient la Méditerranée sans passer par le canal de Suez, garantis par une alliance stratégique bâtie sur le dos des Palestiniens.

L’absence la plus grave

Dans la brochure du projet de « Riviera », les habitants de Gaza apparaissent uniquement comme une catégorie résiduelle, perçue comme un obstacle démographique ou un pion iranien. Deux millions de résidents sont effacés de l’histoire et remplacés par un récit où les « méchants de l’histoire » sont trop mauvais pour mériter des droits. Et le Hamas n’est mentionné que comme une organisation criminelle, sans aucune considération politique.

Le plan suppose qu’un quart de la population émigrera – davantage encore si des incitations économiques sont offertes. L’arithmétique est glaçante : chaque départ est évalué à un « gain » de 23 000 dollars (un peu plus de 20 000 euros). L’indemnisation des biens repose sur leur valeur actuelle, quasi nulle, tandis que les logements neufs sont estimés aux prix de Tel-Aviv, inaccessibles pour la quasi-totalité des Gazaouis.

Dans les visualisations générées par l’intelligence artificielle, les habitants ont disparu, remplacés par des investisseurs en robes blanches et keffiehs, sortant de luxueuses voitures Tesla.

Une terre dévastée

Les Romains étaient plus sincères. Comme l’écrivait Tacite à propos de la conquête de la Bretagne :

« Ils font un désert et ils appellent cela la paix. »

La même logique prévaut ici – sans même feindre d’écouter les voix des concernés.

Après deux années de destruction systématique, la matérialité de Gaza – son histoire, sa topographie et même son cadastre – a été effacée ; sur 365 km2 entre désert et mer, sa densité est 50 % supérieure à celle de Tel-Aviv. Les dégâts sont terrifiants : 61 millions de tonnes de décombres, 78 % des bâtiments détruits ou endommagés, la moitié des hôpitaux hors service, et seulement 1,5 % de terres encore cultivables pour deux millions d’habitants.

Le déblaiement nécessiterait environ 18 milliards de dollars (15,6 milliards d’euros), des milliers de machines, des dizaines de milliers de mois de travail, des unités mobiles de traitement et des décharges spécialisées.

Mais comment ? Disperser ces débris sur toute la bande reviendrait à en élever la surface de 30 centimètres. Les rejeter à la mer déplacerait simplement la catastrophe ailleurs – une solution sans doute envisagée par ces entrepreneurs rapaces qui rêvent d’un port et d’îles artificielles à la manière de Dubaï.

Ce processus effacerait également la topographie et le cadastre existants. Une opportunité pour ce plan qui propose de remplacer les registres fonciers par des droits de propriété « tokenisés », échangeables sur des marchés spéculatifs basés sur la blockchain – transformant les ruines de Gaza en loterie immobilière.

Le mirage économique

Plutôt que de répondre à la famine et à l’effondrement humanitaire, on évoque la promesse d’une « Riviera du Moyen-Orient » chère à Trump. Le plan ambitionne de porter la valeur immobilière de Gaza à 300 milliards de dollars (261 milliards d’euros) en dix ans, avec plus de 100 milliards (87 milliards d’euros) d’investissements. Le contrôle et la sécurité resteraient entre des mains militaires.

La Gaza Humanitarian Foundation deviendrait un trust chargé d’administrer le territoire « jusqu’à ce qu’une communauté palestinienne réformée et déradicalisée soit prête ». Ce trust détiendrait un tiers du territoire et acquerrait la majeure partie du reste, tandis que la population serait confinée dans des « logements temporaires » – un euphémisme pour des camps.

La Gaza du futur telle que présentée par le plan que promeut Donald Trump.
The Great Trust « From a Demolished Iranian Proxy to a Prosperous Abrahamic Ally », Gaza Reconstitution, Economic Acceleration and Transformation

La liste des investisseurs potentiels inclut de grands groupes de construction saoudiens et internationaux, la famille Ben Laden, Tesla, Ikea, Amazon ou Systra. Ces entreprises n’ont peut-être jamais été consultées, ou peut-être que si ; on le saura bientôt mais, en attendant, leurs logos figurent sur la brochure. Le récit de la « Riviera » masque le véritable objectif : spéculation foncière et monopole sur les infrastructures.

Le design comme instrument de contrôle

Le dessin urbain occupe une place centrale dans le plan. À l’image du Paris d’Haussmann, le projet vise à éradiquer l’insurrection par la réorganisation spatiale. Le présupposé est celui d’une tabula rasa totale – matérielle, topographique et juridique. La côte est envisagée comme une frontière extractive pour les plateformes gazières et pétrolières.

L’ordre spatial proposé est uniforme et inquiétant : sept ou huit villes de 200 000 habitants, chacune définie par une fonction économique ou un acteur privé – centres de données, logistique, tourisme – isolées et reliées par des corridors d’infrastructures et de surveillance. Des outils d’IA produisent des projets d’une précision trompeuse, dissimulant une absence totale d’empathie, d’expérience et d’échelle humaine.

À l’École urbaine de Sciences Po, j’ai demandé aux étudiants d’imaginer la ville la plus « maléfique » possible. Leurs réponses anticipaient cette vision : quartiers fermés, espaces publics artificiels, infrastructures-barrières, surveillance totale, monumentalité anonyme. Ils ont instinctivement compris que le contraire du bon urbanisme n’est pas le désordre, mais le contrôle – l’élimination calculée de la diversité, de la proximité et de la vie commune.

Un catalogue de l’urbanisme pervers

Le schéma proposé pour Gaza n’est pas un exercice académique. C’est l’application délibérée d’une logique urbaine perverse, conçue pour créer un environnement « sûr » pour le capital global. Une logique qui isole, clôture, marchandise toute ressource, détruit la nature, réprime la vie sociale, limite la mobilité et impose la surveillance et l’hostilité. Elle anéantit la capacité d’agir, la communauté et la dignité au nom de la sécurité et du profit.

Ce phénomène ne concerne pas seulement Gaza. Les mêmes principes sont déjà visibles du Golfe à l’Asie : espaces privatisés, paysages artificiels, enclaves surveillées, infrastructures de contrôle. La « ville perverse » n’est plus une fiction dystopique – elle est le modèle émergent de l’urbanisation contemporaine qui, après l’urbicide, prône tout simplement une nécrocité.

On pourrait conclure par une réflexion plus inquiétante encore : les États-Unis des suprémacistes réactionnaires, qui jurent d’anéantir l’ennemi intérieur, regardent Gaza comme un modèle. Les bombes pour détruire, le promoteur pour reconstruire. Que reconstruire, demanderez-vous ?

Le guerrier Pete Hegseth et le promoteur Donald Trump l’ont dit explicitement aux 800 généraux qu’ils ont récemment réunis à Quantico : l’ennemi est parmi nous, préparez-vous – vos prochaines zones de combat seront les villes des États-Unis.

The Conversation

Marco Cremaschi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’urbanisme pervers de la « reconstruction » de Gaza – https://theconversation.com/lurbanisme-pervers-de-la-reconstruction-de-gaza-268855

Le Tour de France à Singapour : quand la Grande Boucle fait étape dans la cité-État

Source: The Conversation – in French – By Paco Milhiet, Visiting fellow au sein de la Rajaratnam School of International Studies ( NTU-Singapour), chercheur associé à l’Institut catholique de Paris, Institut catholique de Paris (ICP)

Le Tour de France, course cycliste la plus prestigieuse au monde, est devenu un puissant instrument de soft power. L’instauration régulière à Singapour d’un critérium urbain labellisé « Tour de France » renforce la présence et l’attrait de l’épreuve en Asie du Sud-Est. Dans le sillage des bonnes relations franco-singapouriennes, la cité-État fait désormais partie intégrante de la route du Tour.


L’image a de quoi surprendre. Cœur historique de Singapour, Marina Bay est la vitrine de l’extraordinaire réussite de la cité-État depuis son indépendance il y a soixante ans : architectures futuristes, jardins suspendus, hôtels de luxe, casinos, circuit de Formule 1… C’est dans ce décor improbable que s’est déroulée, le samedi 1er novembre 2025, une étape de la Grande Boucle… ou presque. Pour la quatrième année consécutive, Singapour accueille une course estampillée « Tour de France », le temps d’un critérium urbain (60 kilomètres de course en ligne, effectuée en 25 tours d’un circuit de 2,4 km). Événement promotionnel par nature, à forte dimension marketing, il n’en demeure pas moins un rendez-vous d’intérêt pour les passionnés de vélo.

L’édition 2025 s’est déroulée dans des conditions compliquées sous une pluie diluvienne, ajoutant encore de la dramaturgie à une étape singapourienne qui attire chaque année des stars et fait vibrer les fans. Ainsi, en 2024, Marc Cavendish, recordman de victoires d’étapes sur le Tour (35 fois), avait choisi la cité-État pour mettre un terme à sa carrière – avec une dernière victoire au sprint. Cette année, malgré la présence de cadors comme le Slovène Primoz Roglic, ce sont encore les sprinteurs qui se sont disputé la victoire. Le podium, sous les yeux enthousiastes de Mark Cavendish, désormais ambassadeur du critérium, avait fière allure : on y retrouvait tout simplement les trois derniers vainqueurs du maillot vert (soit les meilleurs sprinteurs au classement par points) du Tour de France, à savoir l’Italien Jonathan Milan, l’Érythréen Biniam Girmay et le Belge Jasper Philipsen.

Épreuve sportive internationale majeure, le Tour de France revêt également une dimension géopolitique, mêlant prestige national et stratégies d’influence commerciale aux retombées économiques mutuelles. L’organisation sous sa bannière d’une course régulière à Singapour en constitue un exemple intéressant.

Le Tour, un outil de soft power français… et international

Créé en 1903, le Tour de France est une compétition cycliste masculine (jusqu’en 1984, ndlr) à étapes – 21, dans son format actuel, pour près de 3 500 kilomètres – qui parcourt chaque été la France, avec parfois des incursions dans les pays voisins. Souvent cité comme le troisième événement sportif mondial en termes d’audimat après les Jeux olympiques et la Coupe du monde de football, il attire près de 12 millions de spectateurs sur ses routes et des centaines de millions de téléspectateurs à travers le monde. Le Tour est le plus ancien et le plus prestigieux des Grands Tours de l’Union cycliste internationale (avec le Giro d’Italia et la Vuelta a España). Il est universellement reconnu comme le sommet du cyclisme professionnel.

Au fil du temps, le Tour est devenu bien plus qu’un simple événement sportif. Malgré les scandales de dopage récurrents, il continue de captiver le public international. En sillonnant les routes de France, il reflète l’évolution historique de la société européenne et valorise un patrimoine touristique exceptionnel.

Diffusé dans plus de 130 pays, le Tour de France s’est progressivement mué en instrument d’influence pour la France, mais aussi pour d’autres acteurs internationaux. Depuis 1954, date du premier grand départ à l’étranger (à Amsterdam), 25 éditions ont débuté hors de France : en Espagne, en Italie, en Belgique, en Angleterre, en Irlande, au Danemark, ou encore en Allemagne. Formidable publicité, la qualité des images et la mise en valeur du patrimoine local ont encouragé des villes à forte ambition touristique – Londres, Florence, Dublin, Berlin – à se porter candidates pour accueillir le départ. En 2026, c’est depuis Barcelone (Espagne) que le Tour s’élancera.

Cette internationalisation du Tour n’est pas seulement motivée par des considérations économiques : elle fait souvent écho aux grandes dates qui ont marqué l’histoire du continent européen et offre aux pays hôtes une occasion de projeter une image positive au reste du monde. Du soft power à la géopolitique, il n’y a parfois qu’un pas.

Une Grande Boucle géopolitique

Depuis ses origines, le Tour de France porte une forte dimension géopolitique. Le choix de ses parcours reflète souvent une intention diplomatique liée à des événements historiques. En 1919, le Tour s’arrête à Strasbourg pour célébrer le retour de l’Alsace-Lorraine dans le giron national. Durant la guerre froide, le Tour fait face à la concurrence de la Course de la paix, organisée dans les pays communistes d’Europe de l’Est, symbole de la division du continent. En 1964, le Tour traverse pour la première fois l’Allemagne, quelques mois après la réconciliation officielle entre Paris et Bonn. Dix ans plus tard, la Grande Boucle passe par le Royaume-Uni, nouvellement intégré à la Communauté économique européenne (CEE). En 1994, les coureurs empruntent le tunnel sous la Manche, inauguré quelques semaines plus tôt.

Si les équipes ne représentent plus des nations, mais des sponsors privés, certaines sont directement financées par des États : Israël Premier Tech, Astana (Kazakhstan), UAE Team Emirates ou Bahrain Victorious. De quoi faire du Tour un outil de rayonnement, mais aussi une cible de choix. Les grands sujets de relations internationales s’invitent parfois dans le peloton et perturbent la course.

Dernier exemple en date, lors de l’édition 2025, des actions récurrentes de militants propalestiniens qui ont perturbé la course. Quelques semaines plus tard, la dernière étape de la Vuelta 2025, sous la pression de manifestations propalestiniennes, sera tout bonnement arrêtée.

Cap sur l’Asie-Pacifique

Course cycliste la plus prestigieuse au monde, le Tour de France a largement dépassé le cadre européen et cherche désormais à conquérir des territoires encore inexplorés.

Bien implanté en Europe, en Amérique (des athlètes états-uniens et colombiens ont remporté la compétition) et en Afrique (un cycliste africain, Binam Girmay, a remporté une étape du Tour pour la première fois en 2024), le Tour s’ouvre à présent à l’Asie, une région encore peu représentée dans le peloton. Le succès du Tour a ainsi inspiré la création de répliques dans la région : Tour du Qatar, Tour des Émirats, Tour du Timor, Tour de Pékin, Tour Down Under (Australie), Tour de Langkawi (Malaisie)…

Depuis les années 2010, des « critériums » – courses en boucle sur circuit fermé – labellisés Tour de France sont organisés au Japon et dans plusieurs villes chinoises (Shanghai, Pékin, Changsha). En 2022, Singapour est devenu le premier pays d’Asie du Sud-Est à accueillir le Tour de France. Soutenu par le Singapore Tourism Board et plusieurs partenaires privés, l’événement réunit plusieurs des meilleurs cyclistes mondiaux lors de chaque édition. Renouvelé chaque année depuis son instauration, l’événement fait désormais partie de l’agenda des grandes compétitions sportives organisées dans la cité-État.

« Singapour : les stars du Tour de France en opération séduction », France 24, 4 novembre 2022.

Pour Singapour, accueillir le Tour de France s’inscrit dans une stratégie de rayonnement international fondée sur la valorisation de grands événements sportifs, à l’image du Grand Prix de Formule 1 ou de l’étape du Rugby Sevens. Pour le Tour, la cité-État constitue une porte d’entrée stratégique vers l’Asie du Sud-Est, avec l’ambition, à terme, de multiplier les compétitions satellites dans les pays voisins.

Un événement symbole des excellentes relations franco-singapouriennes

Enfin, cet événement est emblématique des bonnes relations entre Paris et Singapour et de la bonne image générale dont la France bénéficie dans la cité-État.

Alors que les deux pays célèbrent en 2025 le soixantième anniversaire de l’établissement de leurs relations diplomatiques, leur coopération s’affirme dans de nombreux domaines : politique, avec la visite d’Emmanuel Macron en tant qu’invité d’honneur du Shangri-La Dialogue 2025, en juin dernier – une première pour un chef d’État européen ; militaire, avec l’escale du porte-avions Charles de Gaulle en mars ; économique, avec près de 1 000 filiales d’entreprises françaises implantées ; mais aussi culturelle, gastronomique et, désormais, sportive avec l’organisation du Tour de France à Singapour.

Ce succès pourrait en inspirer d’autres. Le football, sport roi à Singapour, reste aujourd’hui largement dominé par les clubs de Premier League anglaise, notamment Manchester United. Le Paris Saint-Germain, dont la popularité a fortement augmenté après sa victoire en Ligue des champions, a déjà effectué une tournée à Singapour en 2018 et ouvert un bureau local. D’autres clubs français de renom, notamment ceux évoluant en Ligue des champions comme l’Olympique de Marseille, pourraient à leur tour suivre cet exemple.

The Conversation

Paco Milhiet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Tour de France à Singapour : quand la Grande Boucle fait étape dans la cité-État – https://theconversation.com/le-tour-de-france-a-singapour-quand-la-grande-boucle-fait-etape-dans-la-cite-etat-268406

COP après COP, les peuples autochtones sont de plus en plus visibles mais toujours inaudibles

Source: The Conversation – in French – By Marine Gauthier, PhD Candidate International Relations, Graduate Institute – Institut de hautes études internationales et du développement (IHEID)

Le cacique Raoni Metuktire et son traducteur, le 29 novembre 2015, lors du lancement de l’opération « One Heart, One Tree » à la COP 21. Gert-Peter Bruch, CC BY

Ils occupent 20 % des territoires terrestres. Les peuples autochtones sont de plus en plus présents aux COP, mais leurs voix demeurent souvent inaudibles lorsque les décideurs du monde entier se réunissent.


« Nous ne sommes pas ici simplement pour poser sur vos photos. Nous sommes titulaires de droits en vertu de la Déclaration des Nations unies sur les droits des peuples autochtones et devons être présents à la table des décisions », avait prévenu, à la COP28 (Dubaï, 2023), Sarah Hanson, membre de la communauté anishinaabée de Biigtigong Nishnaabeg au Canada, et du Forum international des peuples autochtones sur le changement climatique.

Cette année-là comme les suivantes, cependant, bien peu de représentants des peuples autochtones se trouvaient à la table des négociations. Ils sont pourtant de plus en plus nombreux à se rendre aux COP pour tâcher de faire entendre les voix de leurs communautés dans des pavillons, panels, au moyen de déclarations solennelles ou d’interventions médiatiques. Ils représentent environ 476 millions de personnes et occupent 20 % du territoire terrestre parmi les plus cruciaux pour la préservation de la biodiversité et du climat. Leur rôle est donc crucial dans la lutte contre le changement climatique.

Mais derrière cette façade inclusive, un paradoxe persiste. Si la visibilité des peuples autochtones augmente, leurs voix peinent encore à peser réellement sur les décisions.

À l’approche de la prochaine COP, qui se tiendra du 10 au 21 novembre 2025 à Belém (Brésil), aux portes de la forêt amazonienne, cette contradiction mérite toute notre attention. Elle met en lumière les hiérarchies persistantes de savoirs et de pouvoir qui structurent encore les négociations climatiques internationales.

Un effet vitrine qui ne débouche pas sur l’influence

Un contraste revient de manière frappante : les sessions plénières et les panels où interviennent des représentants autochtones sont largement médiatisés, mais les espaces fermés où s’écrivent les décisions finales leur restent inaccessibles. L’essentiel des discussions techniques se joue de fait dans des « salles de négociation » réservées aux États et à quelques acteurs institutionnels disposant de sièges permanents et de droit à la parole.

La visibilité accrue ne s’est donc pas encore traduite en véritable pouvoir de décision. Ce déséquilibre se retrouve dans les contributions déterminées au niveau national (CDN), les plans que chaque pays soumet dans le cadre de l’accord de Paris (2015) pour expliquer comment il compte réduire ses émissions de gaz à effet de serre et s’adapter au changement climatique. Ces documents sont au cœur des COP, car ils servent de base à l’évaluation collective des efforts de chaque État. Or, dans de nombreux pays, leur élaboration reste très technocratique : confiée à des cabinets de consultants ou à des institutions internationales, elle se fait souvent sans véritable consultation des communautés locales ni des peuples autochtones, pourtant directement concernés par les politiques climatiques. De nouveau, à la COP28, à Dubaï en 2023, leurs voix étaient audibles sur les scènes publiques, mais absentes des textes finaux sur le mécanisme de Loss and damage (destiné à indemniser les pays et populations les plus vulnérables face aux pertes et dommages causés par le changement climatique) et les dispositifs financiers associés.

L’écoute sélective des savoirs autochtones

Les revendications des peuples autochtones, qu’il s’agisse de leurs droits fonciers, de leur souveraineté politique ou de la reconnaissance de leur histoire, sont ainsi rarement prises en compte. Sans doute parve que les admettre reviendrait à redistribuer le pouvoir au sein du système climatique international, ce que les États et les institutions internationales évitent soigneusement au travers de différentes stratégies, volontaires ou non.

Certes, les COP valorisent volontiers la contribution des peuples autochtones sur une série de sujets seulement. C’est le cas pour les « solutions fondées sur la nature », telles que la préservation des forêts utilisées pour compenser les émissions de carbone. Mais les contributions autorisées s’accordent avec les instruments financiers et technologiques déjà en place : ils permettent d’intégrer les savoirs autochtones tant qu’ils ne remettent pas en cause l’ordre établi. La participation devient alors une vitrine d’inclusivité, plus qu’un véritable partage du pouvoir.

Cette reconnaissance sélective s’apparente à une « justice épistémique partielle » : les savoirs autochtones sont validés quand ils renforcent les cadres scientifiques dominants, mais rarement reconnus comme fondateurs d’autres modes de gouvernance. Lors de la COP29, tenue en Azerbaïdjan en 2024, le Baku Workplan a certes souligné l’importance d’intégrer les savoirs autochtones dans les stratégies climatiques, notamment dans les domaines de l’adaptation et de la gestion des écosystèmes. Les savoirs agricoles et hydrologiques des peuples vivant en zones arides ont comme cela été largement valorisés, présentés comme une ressource précieuse pour renforcer la résilience face aux sécheresses et aux inondations.

En revanche, les savoirs portant sur la gouvernance foncière, la propriété des territoires ou les modes de consultation communautaires ont été largement absents des discussions, qui déterminent pourtant directement l’avenir de leurs terres. Ces éléments sont d’ailleurs systématiquement absents à ce jour des plans nationaux de réduction des émissions de gaz à effet de serre et d’adaptation au changement climatique (les CDN).

Cette marginalisation se produit également via le fonctionnement même du régime climatique. Les négociations s’appuient sur une logique globale (des chiffres, des tonnes de carbone, des scénarios prospectifs de réduction d’émissions) qui ignore les réalités locales. Ce cadre « aplatit » la diversité des contextes et réduit les savoirs autochtones à des anecdotes culturelles. Les projets de réduction des émissions issues de la déforestation et de la dégradation des forêts (REDD+) illustrent ce décalage.

Ces initiatives visent à réduire les émissions issues de la déforestation en quantifiant le carbone stocké dans les forêts. Mais cette logique purement comptable ignore encore les usages coutumiers de la forêt (chasse, cueillette, cultures itinérantes) et les droits fonciers des communautés locales. Ces réalités demeurent marginales au milieu des indicateurs mesurables prédéfinis, tels que le nombre d’hectares « protégés », vidant de sens leur conception du territoire comme espace de vie.

Dans les débats de la COP, certains autochtones témoignent ainsi de la difficulté de faire entendre leurs savoirs. Les experts internationaux auxquels ils s’adressent « sont bien formés aux standards mondiaux, mais peu au contexte local » déplorait ainsi un représentant autochtone d’Afrique centrale. Ce décalage oblige alors les communautés à traduire leurs savoirs dans un langage normatif pour être audibles : un effort constant de « traduction culturelle » qui affaiblit la portée de leurs connaissances.

À cela s’ajoutent des obstacles pratiques : celui de la langue (l’anglais technique de la diplomatie), du rythme effréné des sessions parallèles, des moyens financiers limités pour envoyer des délégations complètes. Face à ces obstacles, les voix autochtones passent par l’intermédiaire d’ONG ou d’agences internationales, ou par des canaux de communication digitaux. Ce qu’ils disent sur leur territoire et leur vécu est alors reformulé dans un langage calibré pour les institutions internationales, au risque d’en édulcorer la portée critique.

Enfin, lorsqu’elle est institutionnalisée, la participation autochtone, cette image de protecteur, bien qu’elle leur ouvre certaines portes, peut aussi se retourner contre eux, car elle enferme leurs savoirs dans des cases figées.

Ainsi le plan de la République du Tchad pour réduire et s’adapter au changement climatique (CDN) indique-t-il la « mise en valeur des savoir-faire et connaissances autochtones » comme le deuxième pilier de son domaine d’intervention « environnement et forêts ». Mais dans le même temps, il désigne en coupable une grande partie des activités traditionnelles de ces peuples (« pression pastorale, braconnage, pêche, pression démographique, surexploitation des ressources naturelles, feux de brousse et agriculture ») comme cause de la dégradation de la biodiversité. Seule voie, aux yeux de ce plan gouvernemental, l’exploitation des produits forestiers non ligneux (écorces, feuilles, miel, champignons…) qui deviennent des « ressources durables » compatibles avec la logique de marché. Exploitation qui ne concerne d’ailleurs qu’une partie des communautés autochtones, souvent celles établies dans les zones boisées du Sud, et qui représente une part marginale de leurs activités économiques.

À l’approche de « la COP des COP »

Les savoirs autochtones ne servent ainsi fréquemment qu’à « réenchanter » une arène technocratique, sans pour autant en changer les règles du jeu.

À l’approche de la COP30, les peuples autochtones se préparent à une participation record, mais dans un scénario qui ressemble étrangement aux précédents. Cette conférence est un moment clé, car elle marquera la réévaluation des engagements climatiques dix ans après l’accord de Paris et elle abordera des thématiques chères aux peuples autochtones : arrêt de la déforestation d’ici à 2030, abandon des énergies fossiles, mise en place de ressources financières dédiées à la finance climatique.

Plus de 190 États et des milliers de représentants de la société civile et d’entreprises y seront présents. Le Brésil annonce la venue de 3 000 représentants autochtones, dont un millier participera à des sessions officielles – une première. Les organisations autochtones, notamment d’Amazonie, expriment déjà leurs revendications. Patricia Suarez, de l’Organisation nationale des peuples autochtones de l’Amazonie colombienne (OPIAC), rappelle à cet égard :

« Ce n’est pas seulement une question de climat, c’est une question de vie, de survie même de nos communautés. »

Pourtant, les règles du jeu n’ont pas changé. Ces représentants pourront écouter mais rarement parler. Leur inclusion dans les délégations nationales et les groupes techniques reste exceptionnelle. Surtout, la question des droits fonciers demeure un angle mort des négociations. Or, environ 22 % du carbone des forêts tropicales se trouve sur des terres gérées par des communautés autochtones, dont un tiers ne sont pas reconnues juridiquement. Sans titre foncier, ces territoires restent vulnérables à l’exploitation et à la déforestation : une menace directe pour le climat mondial comme pour la justice environnementale.

The Conversation

Marine Gauthier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. COP après COP, les peuples autochtones sont de plus en plus visibles mais toujours inaudibles – https://theconversation.com/cop-apres-cop-les-peuples-autochtones-sont-de-plus-en-plus-visibles-mais-toujours-inaudibles-268706

Pourquoi une diminution de la population humaine ne bénéficierait pas forcément à la biodiversité : l’exemple du Japon

Source: The Conversation – in French – By Peter Matanle, Senior Lecturer in Japanese Studies, University of Sheffield

Photo satellite de la préfecture rurale de Saga, au Japon. Google Earth Pro, CC BY-NC-ND

Même avec moins d’êtres humains, la faune sauvage ne disposerait pas nécessairement de davantage d’espace et de niches écologiques où s’installer. Dans certaines zones du Japon rural où l’humain se raréfie peu à peu, on voit la biodiversité décliner malgré tout.


Depuis 1970, 73 % de la faune sauvage mondiale a disparu, tandis que la population mondiale a elle doublé pour atteindre 8 milliards d’individus. Des recherches montrent qu’il ne s’agit pas d’une coïncidence : la croissance démographique entraîne un déclin catastrophique de la biodiversité.

Actuellement, cependant, un tournant démographique inverse est en train de se produire. Selon les projections de l’ONU, la population de 85 pays diminuera d’ici 2050, principalement en Europe et en Asie. D’ici 2100, la population humaine devrait connaître un déclin mondial. Certains affirment que cela sera bénéfique pour l’environnement.

Partant de l’hypothèse que le dépeuplement pourrait contribuer à la restauration de l’environnement, nous avons tâché de voir, avec nos collègues Yang Li et Taku Fujita, si la biodiversité japonaise bénéficiait de ce que nous avons appelé un « dividende lié à la dépopulation humaine ».

Depuis 2003, des centaines de citoyens japonais collectent des données sur la biodiversité pour le projet gouvernemental Monitoring Sites 1 000. Nous avons utilisé 1,5 million d’observations d’espèces enregistrées provenant de 158 sites.

Ces zones étaient boisées, agricoles et périurbaines. Nous avons comparé ces observations aux changements observés au niveau de la population locale, de l’utilisation des sols et de la température de surface sur des périodes de cinq à vingt ans.

Ces paysages ont connu le plus fort déclin démographique depuis les années 1990.

En raison de la taille de notre base de données, du choix des sites et du positionnement du Japon en tant que fer de lance du dépeuplement en Asie du Nord-Est, il s’agit de l’une des plus grandes études de ce type.

Notre étude, publiée dans la revue Nature Sustainability, a tâché d’analyser les populations d’oiseaux, les papillons, les lucioles, les grenouilles et 2 922 plantes indigènes et non indigènes sur ces mêmes sites.

Le Japon n’est pas Tchernobyl

Le constat est sans appel : la biodiversité a continué de diminuer dans la plupart des zones que nous avons étudiées, indépendamment de l’augmentation ou de la diminution de la population. Ce n’est que là où la population est restée stable que la biodiversité était la plus stable. Cependant, la population de ces zones vieillit et va bientôt décliner, ce qui les alignera sur les zones qui connaissent déjà une perte de biodiversité.

Contrairement à Tchernobyl, où une crise soudaine a provoqué une évacuation quasi totale de la population qui a donné lieu à des récits surprenants sur la renaissance de la faune sauvage, la perte de population au Japon s’est développée progressivement.

Si la plupart des terres agricoles continuent d’être cultivées, certaines sont laissées à l’abandon ou désaffectées, d’autres sont vendues à des promoteurs immobiliers ou transformées en zones d’agriculture intensive. Tout cela empêche le développement naturel des plantes ou un reboisement qui enrichiraient la biodiversité.

Dans ces régions, les êtres humains sont les agents de la durabilité des écosystèmes. L’agriculture traditionnelle et les pratiques saisonnières, telles que l’inondation, la plantation et la récolte des rizières, la gestion des vergers et des taillis ainsi que l’entretien des propriétés, sont importantes pour le maintien de la biodiversité. Le dépeuplement peut donc être destructeur pour la nature. Certaines espèces prospèrent, mais il s’agit souvent d’espèces non indigènes qui posent d’autres problèmes, tels que l’assèchement et l’étouffement des rizières autrefois humides par des herbes envahissantes.

Les bâtiments vacants et abandonnés, les infrastructures sous-utilisées et les problèmes socio-juridiques (tels que les lois complexes en matière d’héritage et les taxes foncières, le manque de capacités administratives des autorités locales et les coûts élevés de démolition et d’élimination) aggravent encore plus le problème.

Une maison abandonnée dans la préfecture de Niigata
Une maison abandonnée ou akiya dans la préfecture de Niigata, au Japon.
Peter Matanle, CC BY-NC-ND

Alors même que le nombre d’akiya (maisons vides, désaffectées ou abandonnées) atteint près de 15 % du parc immobilier national, la construction de nouveaux logements se poursuit sans relâche. En 2024, plus de 790 000 logements ont été construits, en partie du fait de l’évolution de la répartition de la population et de la composition des ménages au Japon. À cela s’ajoutent les routes, les centres commerciaux, les installations sportives, les parkings et les supérettes omniprésentes au Japon. Au final, malgré la diminution de la population, la faune sauvage dispose de moins d’espace et de moins de niches écologiques où s’installer.

Comment changer la donne

Les données démographiques montrent que l’on peut s’attendre à une dépopulation croissante au Japon et en Asie du Nord-Est. Les taux de fécondité restent faibles dans la plupart des pays développés. L’immigration n’offre qu’un répit temporaire, car les pays qui fournissent actuellement des migrants, comme le Vietnam, sont également en voie de dépopulation.

Nos recherches démontrent que la restauration de la biodiversité doit être gérée de manière active, en particulier dans les zones en déclin démographique. Malgré cela, il n’existe que quelques projets de renaturation au Japon. Pour favoriser leur développement, les autorités locales pourraient se voir attribuer le pouvoir de convertir les terres inutilisées en réserves naturelles communautaires gérées localement.

L’épuisement des ressources naturelles constitue un risque systémique pour la stabilité économique mondiale. Les risques écologiques, tels que le déclin des stocks halieutiques ou la déforestation, nécessitent une meilleure responsabilisation de la part des gouvernements et des entreprises.

Plutôt que de dépenser pour davantage d’infrastructures destinées à une population en constante diminution, par exemple, les entreprises japonaises pourraient investir dans la croissance des forêts naturelles locales pour obtenir des crédits carbone.

Le dépeuplement apparaît comme une mégatendance mondiale du XXIe siècle. Bien géré, le dépeuplement pourrait contribuer à réduire les problèmes environnementaux les plus urgents dans le monde, notamment l’utilisation des ressources et de l’énergie, les émissions et les déchets, ainsi que la conservation de la nature. Mais pour que ces opportunités se concrétisent, il faut la gérer activement.

The Conversation

Kei Uchida a reçu un financement de la JSPS Kakenhi 20K20002.

Masayoshi K. Hiraiwa et Peter Matanle ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Pourquoi une diminution de la population humaine ne bénéficierait pas forcément à la biodiversité : l’exemple du Japon – https://theconversation.com/pourquoi-une-diminution-de-la-population-humaine-ne-beneficierait-pas-forcement-a-la-biodiversite-lexemple-du-japon-268227

Les gènes de fusion, de nouveaux leviers thérapeutiques contre le cancer

Source: The Conversation – France in French (2) – By Maël Bouillon, Doctorant, recherche sur les gènes de fusion, Université d’Angers

Le déclenchement de certains cancers est lié à la fusion de deux gènes donnant naissance à une protéine anormale. En ciblant spécifiquement ces gènes, il pourrait être possible de traiter spécifiquement des cancers sans avoir les effets secondaires d’une chimiothérapie « classique ».


Le cancer est une maladie complexe qui résulte d’un déséquilibre important dans le fonctionnement normal des cellules. Chaque cellule de notre organisme agit selon un « programme » inscrit dans son ADN, véritable manuel d’instructions qui contrôle la croissance, la réparation et la mort cellulaire. L’ADN est constitué de gènes comparables à des mots qui composent ce manuel. Les gènes orchestrent la production des protéines nécessaires au bon fonctionnement de la cellule.

Parfois, ce programme se dérègle. Des erreurs, appelées mutations, apparaissent dans l’ADN et modifient les lettres composant les mots du manuel d’instructions. Des instructions erronées peuvent entraîner un comportement anormal des cellules. Certaines vont se multiplier de manière incontrôlée, échapper aux signaux de mort cellulaire et même envahir les tissus voisins. C’est cette perte de contrôle, couplée à la capacité des cellules anormales à s’adapter et à contourner les défenses naturelles de l’organisme, qui peut aboutir au développement d’un cancer.

L’ADN, un code sensible aux fautes de frappe

Pour mieux comprendre comment apparaissent ces mutations à l’origine du cancer, il est utile de revenir sur la nature de l’ADN. L’ADN est constitué de quatre « lettres » (ou bases chimiques : A, T, C, G) qui s’enchaînent pour former des mots (les gènes), puis des chapitres (les chromosomes) et enfin un livre (le génome qui définit un individu). Dans la majorité des cas, l’ADN est fidèlement recopié lorsque la cellule se divise, mais il peut arriver que des erreurs surviennent : des lettres manquent, d’autres sont remplacées, ou encore des chapitres entiers sont mal rangés.

Ces accidents peuvent être dus au hasard, mais peuvent aussi être favorisés par des facteurs extérieurs comme le tabac, l’alcool, l’exposition au soleil ou certains produits chimiques. La cellule possède des capacités de réparation pour corriger les fautes de frappe, mais les mécanismes impliqués alors ne sont pas toujours efficaces. Avec le temps, les erreurs s’accumulent et peuvent favoriser le développement d’un cancer. Certaines anomalies de l’ADN entraînent l’apparition de gènes de fusion.

Qu’est-ce qu’un gène de fusion ?

Un gène de fusion résulte d’un accident dans l’organisation du génome. Imaginez deux mots du manuel d’instructions qui, au lieu d’être séparés, se retrouvent collés l’un à l’autre pour former un nouveau mot, hybride. Par exemple, prenons une phrase dans laquelle les mots « tuba » et « morale » sont coupés et accolés pour donner le mot « tumorale ». Ce mot « tumorale », qui n’existe pas normalement dans la bibliothèque génétique de la cellule, peut donner des instructions inédites et parfois nocives à cette dernière.

Le mot « tumorale » correspond à ce que l’on appelle un gène de fusion. Lorsqu’une cassure de l’ADN se produit, deux morceaux appartenant à des gènes différents peuvent se mettre bout à bout et fusionner. Le résultat est un gène hybride ou chimérique, qui code parfois pour une protéine anormale dite oncogénique, c’est-à-dire pouvant initier le développement d’une tumeur ou accélérer le processus tumoral. Cette protéine chimérique peut agir comme un véritable moteur du cancer, en favorisant la multiplication, la migration et la survie des cellules tumorales.

Quels cancers présentent ces gènes de fusion ?

Les gènes de fusion sont fréquents dans les cancers du sang, tels que les leucémies et les lymphomes, ou dans des tumeurs agressives appelées sarcomes. Ils sont aussi détectés dans certaines tumeurs du cerveau. Ils sont plus rares dans les autres types de cancer mais lorsqu’ils sont présents, ils jouent souvent un rôle majeur dans l’initiation et l’évolution de la maladie.

Ce qui distingue les gènes de fusion des autres anomalies du génome est leur singularité. Contrairement à d’autres mutations que l’on peut retrouver dans plusieurs types de cancer, un gène de fusion n’est habituellement observé que dans une maladie donnée. Certains cancers sont en effet caractérisés par la présence d’une fusion précise entre deux gènes. La détection de cette fusion peut donc aider au diagnostic du cancer.

Les gènes de fusion comme cibles thérapeutiques

Les gènes de fusion représentent des cibles thérapeutiques idéales. Comme ils sont propres au cancer (ces anomalies n’existent pas dans les cellules saines), les thérapies qui les ciblent ont plus de chances de ne tuer que les cellules tumorales et d’épargner les tissus sains (contrairement aux chimiothérapies conventionnelles qui agissent sur toutes les cellules de l’organisme). De plus, comme ces gènes ont un rôle clé dans le développement du cancer, bloquer leur action pourrait freiner considérablement, voire guérir, la maladie. Une piste innovante est actuellement explorée par notre laboratoire pour neutraliser les gènes de fusion dans le cancer : l’interférence ARN. L’interférence ARN est une approche qui consiste à empêcher spécifiquement la production d’une protéine chimérique.

Pour fabriquer une protéine, l’information génétique (le gène) contenue dans l’ADN est transformée en ARN messager. L’ARN est en conséquence l’expression dans une autre langue du message contenu dans l’ADN et sera lui-même converti dans une version finale qu’est la protéine. Cette séquence de conversion ADN vers ARN messager vers protéine peut être bloquée en interférant précisément avec l’ARN messager à l’aide de l’interférence ARN. Cette approche repose sur l’utilisation de petits fragments synthétiques d’ARN, les ARN interférents, choisis pour leur capacité à se fixer sur l’ARN messager issu du gène de fusion et de le détruire avant qu’il ne soit traduit en protéine. Cette méthode, associée à des outils de vectorisation adéquats (transport des ARN interférents jusqu’à la tumeur) est une piste prometteuse pour cibler spécifiquement les gènes de fusion et leurs ARN messagers sans affecter les gènes normaux.

Du gène à la protéine : comment un ARN interférent interrompt le processus de production d’une protéine.
Figure réalisée par les auteurs avec BioRender, CC BY

Un pas de géant vers une médecine de précision

Les études sur les gènes de fusion s’inscrivent dans un objectif de médecine de précision. Identifier les spécificités génétiques des tumeurs devrait permettre de proposer à chaque patient les traitements les plus adaptés à son cancer. Détecter un gène de fusion dans une tumeur pourrait permettre de créer de petits ARN interférents pour bloquer la production de la protéine chimérique et contrôler la maladie. De telles stratégies basées sur l’ARN interférence sont actuellement testées dans des modèles animaux et montrent des résultats encourageants dans le cancer de la prostate et le glioblastome (tumeur du cerveau).

Cette approche pourrait transformer la prise en charge des cancers porteurs de gènes de fusion. Au lieu d’administrer des chimiothérapies standards à tous les patients, l’objectif est de développer des traitements sur mesure, basés sur l’empreinte génétique unique de chaque tumeur. Les avancées en matière de séquençage (lecture) du génome offrent des perspectives inédites en médecine de précision. Décoder le manuel d’instructions des cancers aboutira certainement à des thérapies innovantes et plus efficaces.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Les gènes de fusion, de nouveaux leviers thérapeutiques contre le cancer – https://theconversation.com/les-genes-de-fusion-de-nouveaux-leviers-therapeutiques-contre-le-cancer-267918