Pourquoi mon téléphone ne sonne pas parfois ? Un expert répond

Source: The Conversation – in French – By Jairo Gutierrez, Professor, Department of Computer and Information Sciences, Auckland University of Technology

Une notification d’appel manqué sur l’écran du téléphone. (Tada Images)

J’éprouve un certain sentiment au creux de l’estomac lorsque j’attends un appel important. Vous savez de quoi il s’agit : un appel de votre patron, d’un nouvel employeur potentiel ou la nouvelle de l’accouchement imminent d’un être cher.

Dans ce genre de situation, j’ai l’habitude de fixer mon téléphone, en attendant qu’il sonne. Je m’assure — encore et encore — qu’il n’est pas en mode silencieux ou en mode « ne pas déranger ». Lorsque l’écran est hors de ma vue, je m’imagine entendre la sonnerie familière.

C’est alors qu’apparaît la notification d’appel manqué. Mais le téléphone n’a jamais sonné. Que s’est-il passé ?

Comment fonctionnent les appels mobiles ?

Lors d’un appel mobile sur les réseaux 4G ou 5G, l’appelant compose un numéro et son opérateur de réseau (Telstra ou OneNZ, par exemple) transmet la demande à l’appareil du destinataire.

Pour que cela fonctionne, les deux téléphones doivent être enregistrés auprès d’un sous-système multimédia IP — ou IMS — ce qui se produit automatiquement lorsque vous allumez votre téléphone. L’IMS est le système qui permet de combiner les appels vocaux, les messages et les communications vidéo.

Les deux téléphones doivent également être connectés à une antenne-relais 4G ou 5G. Le réseau de l’appelant envoie une invitation à l’appareil du destinataire, qui commence alors à sonner.

Ce processus est généralement très rapide. Mais au fur et à mesure que les générations de réseaux cellulaires ont évolué (vous vous souvenez de la 3G ?), devenant plus rapides et dotés d’une plus grande capacité, ils sont également devenus plus complexes, avec de nouveaux risques de dysfonctionnement.

Des pannes de téléphone aux « zones mortes »

Les téléphones mobiles utilisent la voix sur LTE (VoLTE) pour les réseaux 4G ou la voix sur la nouvelle radio (VoNR) pour la 5G. Ces technologies permettent de passer des appels vocaux sur ces deux types de réseaux et utilisent l’IMS mentionné ci-dessus.

Dans certains pays comme la Nouvelle-Zélande, si l’une ou l’autre de ces technologies n’est pas activée ou prise en charge par votre appareil (certains téléphones ont la VoLTE désactivée par défaut), celui-ci peut tenter de basculer sur le réseau 3G, qui a été désactivé en Australie en 2024 et qui est actuellement en cours de suppression progressive en Nouvelle-Zélande.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Si cette bascule échoue ou est retardée, le téléphone du destinataire peut ne pas sonner ou tomber directement sur la messagerie vocale.

Il est également possible que votre téléphone n’ait pas réussi à s’enregistrer sur le réseau IMS. Dans ce cas, en raison d’un problème logiciel, d’un problème de carte SIM ou d’un problème de réseau, le téléphone ne reçoit pas le signal d’appel et ne sonne pas.

Viennent ensuite les problèmes de transfert. Chaque antenne-relais couvre une zone particulière et, si vous vous déplacez, votre appel sera pris en charge par l’antenne qui offre la meilleure couverture. Parfois, votre téléphone utilise la 5G pour les données et la 4G pour la voix ; si le transfert entre la 5G et la 4G est lent ou échoue, l’appel risque de ne pas sonner. Si la 5G est utilisée à la fois pour les données et la voix, on a recours à la VoNR, qui n’est pas encore très répandue et peut échouer.

Les applications mobiles posent d’autres problèmes potentiels. Par exemple, sur Android, les fonctions agressives d’économie de la batterie peuvent restreindre les processus d’arrière-plan, y compris l’application du téléphone, l’empêchant de répondre aux appels entrants. Les applications tierces telles que les bloqueurs d’appels, les outils antivirus ou même les applications de messagerie peuvent également interférer avec les notifications d’appels.

Enfin, si votre téléphone se trouve dans une zone de mauvaise réception, il se peut qu’il ne reçoive pas le signal d’appel à temps pour sonner. Ces « zones mortes » sont plus fréquentes que les opérateurs de télécommunications ne veulent l’admettre. J’habite au bout d’une longue allée dans une banlieue bien couverte d’Auckland, en Nouvelle-Zélande. Mais, selon l’endroit où je me trouve dans la maison, je rencontre encore des zones mortes et, souvent, les applications d’appels compatibles wifi font sonner le téléphone de manière plus fiable.

Page de réglage de la batterie affichée sur l’écran d’un téléphone portable
Les fonctionnalités d’économie de batterie sur les téléphones peuvent restreindre les processus en arrière-plan, y compris l’application téléphonique, l’empêchant de répondre aux appels entrants.
(ymgerman/Shutterstock)

Que puis-je faire pour résoudre ce problème ?

Si votre téléphone ne sonne pas fréquemment en 4G ou 5G, il y a plusieurs choses que vous pouvez faire :

  • assurez-vous que la fonction VolTE/VoNR est activée dans vos paramètres réseau

  • redémarrez votre téléphone et activez le mode avion pour réinitialiser la connexion au réseau

  • vérifiez les paramètres d’optimisation de la batterie et excluez l’application téléphonique que vous utilisez

  • contactez votre opérateur pour confirmer la prise en charge et le provisionnement de VoLTE/VoNR.

Mais en fin de compte, il arrive qu’un appel échoue, et il n’y a pas grand-chose que l’on puisse faire pour y remédier. Ce qui, oui, est ennuyeux. Mais cela signifie aussi que vous avez une excuse sûre, techniquement justifiée, pour rater un appel de votre patron.

La Conversation Canada

Jairo Gutierrez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi mon téléphone ne sonne pas parfois ? Un expert répond – https://theconversation.com/pourquoi-mon-telephone-ne-sonne-pas-parfois-un-expert-repond-259863

Comment les « feux zombies » dans les tourbières du Grand Nord affectent le changement climatique global

Source: The Conversation – in French – By Apostolos Voulgarakis, AXA Chair in Wildfires and Climate Director, Laboratory of Atmospheric Environment & Climate Change, Technical University of Crete

Les feux dans le Grand Nord affectent l’atmosphère partout sur Terre. S’ils sont rendus plus fréquents par le changement climatique, ils contribuent à l’accélérer, notamment en libérant le carbone stocké par les tourbières.


Comprendre comment les mégafeux influencent le climat de notre planète est un défi de taille. Bien que les incendies aient toujours existé, presque partout sur la planète, ils restent l’un des éléments les moins compris du système Terre.

Récemment, le nombre de mégafeux dans les régions boréales et arctiques a beaucoup augmenté, ce qui a encore avivé l’attention de la communauté scientifique sur ces zones dont le rôle dans le climat de notre planète reste mystérieux.

En effet, le changement climatique joue probablement un rôle majeur dans l’augmentation du nombre d’incendies en Arctique ; mais les feux de forêt dans les hautes latitudes ne sont pas seulement un symptôme du changement climatique. Ils constituent une force accélératrice qui pourrait façonner l’avenir de notre climat d’une manière que nous sommes incapables de prédire actuellement.

La menace croissante des incendies dans le Grand Nord

À mesure que les températures mondiales augmentent, les grands incendies progressent vers le nord et atteignent l’Arctique. Le Canada, l’Alaska, la Sibérie, la Scandinavie et même le Groenland ont tous récemment connu des saisons de mégafeux parmi les plus intenses et les plus longues jamais enregistrées.

Outre les incendies de forêt classiques qui détruisent la végétation de surface, de nombreux incendies dans les hautes latitudes brûlent la tourbe, une couche dense et riche en carbone composée de matière organique partiellement décomposée. Bien qu’elles ne couvrent que 3 % de la surface terrestre, les tourbières sont l’un des plus importants réservoirs de carbone au monde, contenant environ 25 % du carbone présent dans les sols de la planète.

De plus, le réchauffement climatique est encore plus rapide aux hautes latitudes qu’ailleurs sur Terre (au pôle Nord du moins) — un phénomène appelé « amplification polaire », qui augmente la vulnérabilité des écosystèmes nordiques aux incendies, avec des conséquences potentiellement graves pour le climat mondial.

En effet, lorsque les tourbières s’enflamment, elles libèrent d’énormes quantités de « carbone fossile » emprisonné depuis des siècles, voire des millénaires. Les feux de tourbière, qui sont les incendies les plus importants et les plus persistants sur Terre, peuvent couver pendant de longues périodes, sont difficiles à éteindre et peuvent continuer à brûler sous terre tout au long de l’hiver, pour se rallumer à la surface au printemps. Ils ont récemment été qualifiés de « feux zombies ».

Si les conditions plus chaudes et plus sèches induites par le changement climatique rendent les forêts boréales plus inflammables, on s’attend également à ce qu’elle augmente la fréquence et l’intensité des feux de tourbe, transformant potentiellement les tourbières de puits de carbone (qui absorbent et stockent le carbone contenu dans l’atmosphère) en sources nettes d’émissions de gaz à effet de serre.




À lire aussi :
Voir la planète respirer depuis l’espace, ou comment mesurer les gaz à effet de serre par satellite


Un tel changement pourrait déclencher une « boucle de rétroaction », c’est-à-dire qu’un réchauffement climatique entraînerait davantage d’émissions de carbone, qui à leur tour accéléreraient le changement climatique.

Les mégafeux affectent la santé humaine, entre stress, deuil, et pollution

Les mégafeux dégagent aussi de grandes quantités de particules de fumée dans l’atmosphère sous forme d’aérosols, contribuant de manière significative à la dégradation de la qualité de l’air à l’échelle locale et régionale. Ces particules sont nocives pour la santé humaine et peuvent provoquer de graves problèmes respiratoires et cardiovasculaires, tandis qu’une exposition prolongée peut entraîner un stress important, des hospitalisations et une augmentation de la mortalité. Les incendies sont également la cause de troubles mentaux liés aux pertes de proches, d’un foyer, de moyens de subsistance ou aux évacuations.

L’impact sur les conditions météorologiques à travers le monde est ressenti à court terme

Au-delà de leurs effets à long terme sur le climat, les émissions des mégafeux peuvent également influencer les conditions météorologiques à plus court terme par leur impact sur les niveaux de pollution atmosphérique. Les particules de fumée interagissent avec la lumière du soleil et les processus de formation des nuages, affectant par la suite les températures, les régimes des vents et les précipitations.

Par exemple, nous avons récemment démontré, sur les impacts atmosphériques à grande échelle des incendies, que les aérosols issus des incendies au Canada en 2023 ont entraîné une baisse de la température de l’air en surface qui s’est étendue à tout l’hémisphère nord. Le refroidissement a été particulièrement prononcé au Canada (jusqu’à -5,5 °C en août), où se situaient les émissions, mais il a également été significatif dans des régions éloignées telles que l’Europe de l’Est et même la Sibérie (jusqu’à environ -2,5 °C en juillet).

L’anomalie moyenne de la température hémisphérique que nous avons calculée (proche de -1 °C) souligne le potentiel des émissions régionales importantes provenant des mégafeux à perturber les conditions météorologiques pendant des semaines sur tout un hémisphère, avec des implications profondes pour les prévisions.

Un effet peu intuitif de ces perturbations est qu’ils impactent la fiabilité des prévisions météorologiques. Des prévisions peu fiables peuvent perturber les activités quotidiennes et présenter des risques pour la sécurité publique, en particulier lors d’événements extrêmes tels que les vagues de chaleur ou les tempêtes. Elles ont également de graves conséquences pour des secteurs tels que l’agriculture, la pêche et les transports, où la planification dépend fortement de prévisions précises et opportunes.

Les effets méconnus des feux de tourbe sur le climat

Bien qu’il soit essentiel d’intégrer les rétroactions des feux de tourbières dans les modèles du système Terre pour obtenir des projections climatiques précises (la plupart des modèles existants ne prennent pas en compte les feux de tourbières).

Il est donc primordial de comprendre le comportement de combustion lente des sols organiques, leur inflammabilité et la manière dont ces processus peuvent être représentés à l’échelle mondiale.

Les efforts de recherche récents visent à combler cette lacune. Par exemple, à l’Université technique de Crète, nous collaborons avec le groupe de recherche Hazelab de l’Imperial College London et le Leverhulme Centre for Wildfires, Environnement et Société afin de mener des recherches sur le terrain et des expériences de pointe sur la combustion lente de la tourbe, dans le but de mieux comprendre les mécanismes complexes des feux de tourbe.

L’intégration de ces résultats de laboratoire dans les modèles numériques du système Terre doit permettre de modéliser les émissions de feux de manière plus précise, ce qui pourrait modifier nos prévisions du climat futur sur Terre.

En quantifiant comment les feux de forêts boréales et de tourbières affectent aujourd’hui l’atmosphère, nous devrions être en mesure d’améliorer la qualité des projections de l’augmentation de la température globale moyenne, mais aussi d’affiner les prévisions des impacts climatiques régionaux liés aux aérosols, tels que les changements de régime pluviométrique ou l’accélération de la fonte des glaces en Arctique.

Relever le défi des feux dans le Grand Nord

Il ne fait aucun doute que nous sommes entrés dans une ère où les mégafeux sont plus fréquents et ont des conséquences catastrophiques. Les incendies récents dans les régions boréales et arctiques révèlent un changement radical dans la nature des feux de forêt aux hautes latitudes, ce qui nécessite une attention et une action urgente.

À mesure que la planète continue de se réchauffer, les incendies dans les hautes latitudes devraient contribuer à façonner l’avenir de notre planète. Les incendies de forêt massifs, tels que ceux qui ont ravagé le Canada en 2023, ont non seulement brûlé des millions d’hectares, mais ont également contraint des centaines de milliers de personnes à évacuer leurs maisons. Des quantités sans précédent de fumée ont recouvert certaines régions d’Amérique du Nord d’un brouillard toxique, entraînant la fermeture d’écoles, l’émission d’alertes sanitaires et obligeant les citoyens à rester chez eux pendant plusieurs jours. De tels événements reflètent une tendance croissante. Ils soulignent pourquoi il est non seulement impératif sur le plan scientifique, mais aussi moralement responsable, de faire progresser la recherche afin de mieux comprendre et prévoir la dynamique des feux de tourbières et de forêts dans le nord, et d’atténuer leurs impacts climatiques globaux.


Créé, en 2007, pour aider à accélérer et à partager les recherches scientifiques sur des enjeux sociaux majeurs, le Fonds d’Axa pour la recherche soutient près de 700 projets dans le monde mené par des chercheurs issus de 38 pays. Pour en savoir plus, visiter le site ou bien sa page LinkedIn.

The Conversation

Dimitra Tarasi a reçu des financements de la chaire AXA Wildfires and Climate, du Leverhulme Centre for Wildfires, Environment and Society et de la A.G. Leventis Foundation Educational Grants.

Apostolos Voulgarakis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment les « feux zombies » dans les tourbières du Grand Nord affectent le changement climatique global – https://theconversation.com/comment-les-feux-zombies-dans-les-tourbieres-du-grand-nord-affectent-le-changement-climatique-global-260605

Rétention des mineurs à Mayotte : la loi qui inquiète juristes et associations

Source: The Conversation – France in French (3) – By Florian Aumond, Maître de conférences en droit public, Université de Poitiers

Le 10 juillet dernier, la loi de programmation pour la refondation de Mayotte a été définitivement adoptée par le Sénat. Si ce texte comprend un volet social, l’un de ses articles organise la création de lieux où pourront être enfermés des mineurs étrangers. Une pratique pourtant en principe interdite par le droit français.


Adopté définitivement par le Sénat le jeudi 10 juillet 2025, le projet de loi de programmation pour la refondation de Mayotte s’inscrit dans le processus législatif engagé à la suite des dommages causés par le cyclone Chido, qui avait ravagé l’île dans la nuit du 13 au 14 décembre 2024. Ce nouveau texte affirme « l’ambition de la France pour le développement de Mayotte », à travers une série de mesures structurelles.

La loi couvre des domaines variés, comme l’encadrement de l’habitat illégal, la convergence accélérée vers le droit commun des prestations sociales, ou encore la modification du mode de scrutin applicable à Mayotte. Mais ce texte approfondit également la dérogation au droit commun en matière d’immigration, inscrit dans le Code de l’entrée et du séjour des étrangers et du droit d’asile (Ceseda) – pourtant en vigueur à Mayotte depuis 2014.

Le titre II de la loi, intitulé « Lutter contre l’immigration clandestine et l’habitat illégal », introduit ainsi une série de dispositions qui durcissent substantiellement les conditions de séjour des personnes étrangères à Mayotte. Deux titres de séjour « vie privée et familiale » se voient fortement limités : ils étaient jusqu’ici perçus comme permettant la régularisation d’un trop grand nombre d’étrangers. Désormais, l’accès à ces titres de séjour sera soumis à la condition d’être entré régulièrement sur le territoire et à une résidence à Mayotte depuis au moins sept ans pour les titres délivrés en raison des « liens personnels et familiaux ».

Le texte prévoit en outre des dispositions relatives à la lutte contre les reconnaissances frauduleuses de paternité et de maternité, ainsi qu’un chapitre sur la lutte contre l’immigration irrégulière. C’est au sein de ce dernier que se trouve une disposition significative de cette loi. Inscrite à l’article 14, elle porte sur la création de lieux de rétention « spécialement adaptés à la prise en charge des besoins de l’unité familiale ».

À l’instar des autres dispositions relatives aux droits des étrangers, la perspective de création de nouveaux centres de rétention « familiaux » a suscité de vives critiques dès la présentation du projet de loi. De nombreuses voix, notamment associatives, ont souligné la violation par cette mesure du principe d’intérêt supérieur de l’enfant. Il s’agit pourtant d’un pilier du régime juridique de protection des droits de l’enfant, depuis sa consécration par la Convention internationale sur le sujet, en 1989.

Pour Unicef France,

« la création prévue d’unités familiales […] ne (fait) que perpétuer une logique d’enfermement des familles avec enfants, alors que la fin de l’enfermement administratif des enfants était initialement prévue en 2027. »

La « zone d’attente », une fiction juridique qui permet l’enfermement des mineurs

Pour comprendre la réaction d’Unicef France, il convient de rappeler le cadre juridique actuel en matière de privation de liberté des personnes étrangères.

Le droit français distingue deux régimes : la rétention administrative concerne les étrangers déjà présents sur le territoire français et permet à l’administration d’exécuter une décision d’éloignement ; la « zone d’attente », quant à elle, ne s’applique qu’aux étrangers non admis sur le territoire français, arrivés par voie ferroviaire, maritime ou aérienne.

Cette « zone d’attente » s’apparente à une fiction juridique. Elle permet en effet de considérer qu’un étranger physiquement sur le territoire français n’y est pas juridiquement présent. Une telle fiction comporte des conséquences majeures pour les mineurs étrangers, car s’il n’est pas possible d’édicter une mesure d’éloignement à leur encontre. Il est en revanche tout à fait autorisé de leur interdire l’entrée sur le territoire, les contraignant ainsi à retourner dans leur pays d’origine ou dans le dernier pays par lequel ils ont transité.

Les zones d’attente sont donc des sas permettant de mettre en œuvre ces mesures. Celles-ci sont non seulement susceptibles de concerner les mineurs accompagnants – souhaitant entrer en France avec leur famille ou un adulte référent –, mais également les mineurs non accompagnés.

La loi n°2024-42 du 26 janvier 2024 pour contrôler l’immigration, améliorer l’intégration a enregistré une avancée significative par rapport à cette situation en consacrant l’interdiction générale de placer les mineurs en rétention, y compris lorsqu’ils accompagnent un adulte. L’article L.741-5 du Ceseda, inséré par la loi de janvier 2024, dispose désormais expressément que

« l’étranger mineur de 18 ans ne peut faire l’objet d’une décision de placement en rétention ».

Toutefois, l’entrée en vigueur de cette disposition a été repoussée pour Mayotte au 1er janvier 2027 en raison, selon le ministre de l’intérieur, « des spécificités de ce territoire – les mineurs rest(ant) moins de quarante-huit heures en moyenne dans le centre de rétention administrative de Mayotte, voire moins d’une journée » et, plus généralement, en raison des « difficultés particulières qui se posent sur ce territoire ».

La première justification ne convainc guère, si l’on constate que la durée de maintien en rétention n’est pas spécifiquement courte à Mayotte : elle est même souvent moindre dans l’Hexagone. Pour ce qui est des conditions spécifiques à Mayotte, s’il est indéniable que l’île connaît un contexte migratoire particulier, rien ne permet d’assurer que déroger au droit commun en enfermant des mineurs en migration y apportera une quelconque solution.

La France a déjà été condamnée pour l’enfermement de mineurs par la justice européenne

C’est dans ce contexte que s’inscrit l’article 14 de la loi de programmation pour la refondation de Mayotte. Il déroge à l’interdiction de placer en rétention un étranger mineur en introduisant de nouveaux lieux : des unités familiales « spécialement aménagées et adaptées », qui devront garantir « aux membres de la famille une intimité adéquate, dans des conditions qui tiennent compte de l’intérêt supérieur de l’enfant ».

Le gouvernement justifie la mesure par le fait qu’elle permettrait de « maintenir les capacités opérationnelles d’éloignement de ce public », c’est-à-dire les familles avec enfants.

Malgré les précautions terminologiques, ces « unités familiales » constituent bien des lieux de rétention administrative, ainsi qu’il ressort expressément de l’exposé des motifs de la loi, dans lequel le ministre des outre-mer évoque « une [unité familiale pour la rétention des mineurs] ». Leur création va donc à rebours des engagements pris par le gouvernement dans la loi de janvier 2024, qui en consacrait une interdiction générale. Ces engagements visaient à aligner le droit français avec la jurisprudence de la Cour européenne des droits de l’homme (CEDH), laquelle a déjà condamné à 11 reprises la France pour des situations de privation de liberté de mineurs en migration.

Le gouvernement a pris des mesures pour éviter que ce texte ne lui vaille de nouvelles condamnations par la CEDH. À la suite de l’avis du Conseil d’État relatif au projet de loi, il a été précisé que le placement en rétention des mineurs ne pouvait excéder une durée de 48 heures. Il est en effet connu que la CEDH retient la durée de la rétention parmi les critères pris en compte afin de conclure à la violation de l’article 3 de la Convention européenne des droits de l’homme, relatif à l’interdiction de la torture et des peines et traitements inhumains ou dégradants.

Elle s’appuie cependant également sur l’âge des personnes enfermées, et les conditions du maintien en centre de rétention administrative (CRA), où sont retenues les personnes migrantes en situation irrégulière. Or, dans un rapport remis en 2023, le contrôleur général des lieux de privation de liberté dénonçait les conditions qui prévalent dans le CRA de Mayotte – situé à Pamandzi –, notamment les difficultés d’accès à l’eau, le maintien des lumières allumées toute la nuit, l’état et l’insuffisance des sanitaires ou l’impossibilité de changer de vêtements.

Une mesure en contradiction avec toutes les recommandations des associations et des organisations internationales

La création de ces nouveaux lieux d’enfermement entre, par ailleurs, en totale contradiction avec les avis de différentes institutions et autorités indépendantes, comme le défenseur des droits, la commission nationale consultative des droits de l’homme, ou encore le contrôleur général des lieux de privation de liberté, toutes ayant rappelé que la rétention – même temporaire et aménagée – compromet le développement psychique et affectif de l’enfant.

Le défenseur des droits a ainsi mis en avant que « la place d’un enfant n’est pas dans un lieu d’enfermement, fût-il conçu pour accueillir des familles ».

La France va également à l’encontre des recommandations du Comité des droits de l’homme des Nations unies, qui l’a appelée à réexaminer les régimes dérogatoires en matière d’immigration dans les territoires ultramarins et à « accélérer l’extension de l’interdiction de la rétention administrative des mineurs à Mayotte ».

Saisi le 16 juillet 2025 par le premier ministre et plus de soixante députés, le Conseil constitutionnel devra se prononcer dans un délai d’un mois sur la conformité de ces dispositions avec les droits fondamentaux garantis par la Constitution.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Rétention des mineurs à Mayotte : la loi qui inquiète juristes et associations – https://theconversation.com/retention-des-mineurs-a-mayotte-la-loi-qui-inquiete-juristes-et-associations-261611

Le changement climatique aggrave le fardeau de la dette africaine : de nouveaux contrats de dette pourraient aider

Source: The Conversation – in French – By Magalie Masamba, Extraordinary lecturer at the Centre for Human Rights, University of Pretoria

De nombreux pays africains croulent sous le poids de la dette. Le changement climatique aggrave encore la situation. L’Afrique contribue le moins aux émissions mondiales, mais souffre le plus des phénomènes météorologiques extrêmes, de la hausse des températures et de la sécheresse. Ces catastrophes affectent non seulement les moyens de subsistance des populations, mais aussi les recettes nationales, rendant le remboursement de la dette plus difficile. Or, les contrats de dette traditionnels ne prennent pas en compte cette réalité.

Le lien entre la dette et le climat devient de plus en plus indéniable. À mesure que les catastrophes liées au climat s’aggravent, les pays endettés disposent de moins de ressources publiques pour protéger leurs écosystèmes naturels et investir dans la santé et l’éducation.

Lorsque des pays consacrent davantage de ressources au remboursement de leur dette qu’à la santé ou à la résilience climatique, ce n’est pas seulement un signe de défaillance du système, c’est une injustice. C’est la réalité à laquelle sont confrontés aujourd’hui de nombreux pays africains.




Read more:
Les pays africains ne peuvent pas résoudre leur crise de la dette dans un système qui leur est défavorable


La dette publique en Afrique subsaharienne a atteint environ 1 150 milliards de dollars en 2023. De plus en plus de remboursements vont à des créanciers privés. Certains gouvernements dépensent désormais plus pour payer les intérêts que pour l’éducation ou l’eau potable.

Dans le cadre de la recherche de solutions à ce problème, mes récentes recherches ont examiné si les instruments de dette conditionnelle de l’État pouvaient constituer une piste utile.

Les instruments de dette conditionnelle de l’État sont généralement garantis par des banques de développement ou des bailleurs de fonds pour le climat. Ils sont liés à des chocs prédéfinis qui affectent l’économie d’un pays. Il peut s’agir d’une baisse de la production économique (produit intérieur brut) qui réduit les recettes publiques. D’autres chocs peuvent être dûs à des phénomènes météorologiques extrêmes et au changement climatique, qui perturbent l’activité économique et augmentent les dépenses nécessaires pour reconstruire les infrastructures, entre autres. Ces chocs peuvent réduire la capacité d’un gouvernement à rembourser ses dettes.

Lorsque de tels chocs se produisent, les instruments de dette conditionnelle de l’État permettent de réduire, de suspendre ou d’ajuster temporairement le remboursement de la dette, aidant ainsi les pays à éviter le défaut de paiement tout en se concentrant sur la reprise.

Chaque instrument de dette conditionnelle à la situation de l’État est structuré différemment, mais l’objectif fondamental reste le même : donner aux pays une marge de manœuvre financière lorsqu’ils sont confrontés à des chocs externes tels que des catastrophes climatiques ou des ralentissements économiques.




Read more:
Les pays africains confrontés à une dette élevée, des exigences de dépenses accrues et l’effondrement de leurs monnaies : voici quelques solutions politiques utiles


Ils sont déjà utilisés dans certains pays. On peut citer, par exemple, les obligations catastrophe de la Jamaïque, qui prévoient la suspension des remboursements en cas d’ouragan, ainsi que les obligations liées à la durabilité du Rwanda, destinées à mobiliser des capitaux privés pour soutenir ses objectifs climatiques. Un autre exemple est l’obligation liée au produit intérieur brut (si le PIB d’un pays diminue pendant une crise, les remboursements sont réduits).

En théorie, ces instruments pourraient alléger la pression financière lorsque les pays ont le plus besoin d’aide. Cela permettrait aux gouvernements de donner la priorité aux populations et à la planète plutôt qu’aux créanciers.

Je suis expert juridique et politique spécialisé dans la dette souveraine (le montant emprunté par un gouvernement), le financement de la lutte contre le changement climatique et la gouvernance économique mondiale. J’ai examiné plusieurs types d’instruments de dette conditionnels, analysé des rapports officiels et consulté des publications universitaires et politiques afin de déterminer comment ceux-ci pourraient fonctionner pour les pays africains.




Read more:
Le changement climatique a doublé le nombre de vagues de chaleur dans le monde : quel impact en Afrique ?


Mes recherches ont montré que si certains pays ont obtenu des résultats mitigés avec ce type de contrats de dette, d’autres ont rencontré des difficultés. Il s’agit notamment de litiges concernant les conditions de déclenchement (les événements spécifiques qui activent les modifications des conditions de remboursement, comme une catastrophe naturelle ou un choc économique) et les primes élevées exigées par les bailleurs de fonds.

La faible notation de crédit de nombreux pays africains rend également les prêteurs réticents à conclure ce type de contrats.

Mes conclusions suggèrent que, bien que ces instruments soient prometteurs, ils ne constituent pas une solution automatique au problème actuel du remboursement de la dette. Néanmoins, s’ils sont mis en place de manière juridiquement irréprochable, ils pourraient constituer un élément précieux d’un système financier plus juste et plus résilient, en particulier s’ils sont associés à un allègement de la dette et à des règles multilatérales plus équitables.

La présidence sud-africaine du G20 : une opportunité

En tant que pays exerçant la présidence du G20, l’Afrique du Sud peut porter la voix du continent pour exprimer l’urgence d’une architecture financière plus équitable. L’Afrique du Sud devrait promouvoir un cadre multilatéral pour le rééchelonnement de la dette souveraine. Il s’agit d’un processus par lequel un pays restructure ou renégocie sa dette publique avec ses créanciers lorsqu’il n’est plus en mesure de respecter ses obligations de remboursement.

Un tel cadre devrait inclure tous les créanciers et tous les débiteurs. Son objectif devrait être de restructurer rapidement la dette et de veiller à ce que les pays ne s’endettent pas au point de ne plus pouvoir investir pour se protéger contre les catastrophes climatiques.

L’Afrique du Sud a mis en place le Groupe d’experts du G20 Groupe d’experts africains pour relever les défis liés à la dette. Dans le but de rationaliser les programmes de financement climatique et de restructuration de la dette souveraine, le groupe peut faire pression pour que des instruments de dette conditionnelle et d’autres outils de dette plus équitables soient mis à l’essai.

L’expert en gouvernance économique mondiale Danny Bradlow et le chercheur Kesaobaka N. Mopipi ont également suggéré que le groupe d’experts doit identifier les obstacles qui empêchent les pays africains d’accéder à des financements abordables, prévisibles et axés sur le développement. L’Afrique du Sud devrait également travailler avec l’Union africaine afin de présenter une position africaine unifiée lors des grands sommets mondiaux. Il s’agit notamment de la COP30 et de la Quatrième Conférence internationale sur le financement du développement. Cela contribuerait également à garantir que les programmes africains en matière de dette, de développement et de financement de la lutte contre le changement climatique ne soient pas traités de manière isolée, mais comme des défis étroitement liés nécessitant des solutions intégrées.

L’Afrique du Sud devrait saisir cette occasion. La présidence du G20 est plus que symbolique. Il s’agit d’une plateforme permettant de remettre en question des normes obsolètes et de mener la charge vers un système mondial de dette au service des populations, de la planète et des générations futures.

Que faire maintenant ?

Tout d’abord, la conception est importante. Les instruments de dette conditionnels à l’État doivent être équitables, transparents et adaptés aux besoins des pays. Des règles claires doivent automatiquement s’appliquer lorsque certaines conditions sont remplies, par exemple lorsqu’un pays est frappé par une catastrophe climatique. Ces règles doivent être faciles à appliquer et alignées sur les plans climatiques et de développement de chaque pays.

Il est également important que les indicateurs clés, tels que le produit intérieur brut, reflètent fidèlement les réalités locales. Dans de nombreux pays africains, une part importante de l’activité économique se déroule dans le secteur informel. Celle-ci est souvent sous-estimée dans les statistiques officielles. Plus important encore, les gouvernements africains devraient prendre l’initiative de définir la conception des nouveaux instruments de dette afin de s’assurer qu’ils soutiennent véritablement les priorités nationales et n’aggravent pas les risques futurs.

Deuxièmement, un soutien technique est essentiel. Il est nécessaire d’investir dans les capacités techniques, l’expertise juridique et la coordination intersectorielle afin de garantir le bon fonctionnement de ces instruments de dette. Les institutions multilatérales, telles que la Banque mondiale, la Banque africaine de développement et d’autres banques régionales de développement, ainsi que d’autres partenaires de développement, doivent appuyer les efforts des gouvernements pour renforcer ces capacités.

Enfin, la convergence des enjeux liés à la dette, au climat et à la conservation en Afrique exige des solutions créatives, justes et tournées vers l’avenir. Toute solution durable en matière de dette doit reconnaître que l’Afrique en particulier, et les pays du Sud en général, ne doivent pas supporter le coût d’une crise climatique qu’ils n’ont pas causée. Les systèmes internationaux de dette doivent être profondément réformés pour devenir plus équitables, transparents et adaptés aux réalités des économies menacées par le changement climatique.

The Conversation

Magalie Masamba does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Le changement climatique aggrave le fardeau de la dette africaine : de nouveaux contrats de dette pourraient aider – https://theconversation.com/le-changement-climatique-aggrave-le-fardeau-de-la-dette-africaine-de-nouveaux-contrats-de-dette-pourraient-aider-262567

Soulignons, sans état d’âme, nos progrès d’adaptation depuis la canicule de 2003

Source: The Conversation – in French – By François Lévêque, Professeur d’économie, Mines Paris – PSL

Depuis 2003, l’Europe a réalisé des progrès conséquents dans l’adaptation aux vagues de chaleur : en proportion, on meurt moins, même si les températures sont plus élevées. Et demain ?


La chaleur tue : on a recensé plusieurs centaines de décès à Paris ainsi que dans d’autres grandes capitales européennes lors de la canicule de mi-juin à début juillet 2025. Le nombre de morts aurait triplé par rapport à la normale du fait du changement climatique, selon une estimation réalisée par des chercheurs britanniques.

Ces chiffres font peur. Ils masquent cependant les grands progrès réalisés pour limiter notre vulnérabilité face à la multiplication des vagues de chaleur. La chaleur tue mais de moins en moins, grâce à nos actions individuelles et collectives d’adaptation. Il faut s’en féliciter, et non l’ignorer.

Les données d’observation de mortalité par les agences sanitaires n’étant pas encore disponibles, le calcul qui précède repose sur des modèles et des méthodes, connus des spécialistes. La plupart sont désormais suffisamment au point pour rendre compte en confiance de leurs résultats sur les progrès de l’adaptation.

La canicule de 2003, ou l’Année zéro

Commençons notre examen en prenant pour point de repère la canicule de 2003 en France. Cet été-là le pays a connu une véritable hécatombe : près de 15 000 décès en excès.

En contrecoup, les pouvoirs publics ont décidé toute une série d’actions préventives pour protéger la population des grandes chaleurs : mise en place d’un système d’alerte annonçant les canicules, campagnes d’information auprès du public sur les façons de se protéger, formation du personnel de santé, ouverture d’espaces climatisés dans les maisons de retraite et les services hospitaliers, etc.

Quelques années plus tard, une équipe regroupant des chercheurs de l’Inserm, de Météo France et de Santé publique France s’est demandé si ces mesures avaient bien été suivies d’effet. À partir d’un modèle reliant mortalité et températures observées en France sur vingt-cinq ans, ils ont estimé que la canicule de l’été 2006 s’était traduite par une baisse de plus de moitié du nombre de décès en excès.

Ce progrès ne peut pas, bien sûr, être imputé aux seules actions publiques. La canicule de 2003 a été à l’origine d’une prise de conscience généralisée des méfaits de la chaleur, de changement des comportements individuels et d’achat d’appareils de rafraîchissement, tels que ventilateurs et climatiseurs, mais aussi d’équipements plus innovants apparus plus tard sur le marché, comme les rafraîchisseurs d’air ou les pompes à chaleur réversibles.

Attention, le frigidaire distributeur de glaçons ne fait pas partie de cette panoplie ! En cas de fortes températures, il faut éviter de boire de l’eau glacée pour se rafraîchir. Elle ralentit la sudation, mécanisme fondamental de l’organisme pour lutter contre la chaleur.

Pourquoi il est délicat de comparer 2022 et 2003

L’été 2022 a constitué la seconde saison la plus chaude jamais enregistrée dans l’Hexagone. Le nombre de décès en excès a été toutefois cinq fois moindre que celui de 2003, mais on ne sait pas précisément quelle part de cette baisse est simplement due à des conditions caniculaires un peu moins défavorables.

La comparaison 2003/2022 est tout aussi délicate au niveau européen. On dispose bien, à cette échelle, de travaux d’estimation de la surmortalité en lien avec la chaleur aux deux dates, mais ils reposent sur des méthodes différentes qui rendent leurs résultats peu comparables : 74 483 décès pour la canicule de 2003 en Europe contre 61 672 morts lors de la canicule de 2022.

En effet, le premier chiffre mesure des décès en excès par rapport à une période de référence, tandis que le second découle de l’application d’une méthode épidémiologique. Celle-ci, plus sophistiquée, mais aussi plus rigoureuse, consiste à estimer pour une ville, une région ou un pays, le risque de mortalité relatif en fonction de la température, à tracer une « courbe exposition-réponse », selon le jargon des spécialistes.

Pour l’Europe entière, le risque est le plus faible autour de 17 °C à 19 °C, puis grimpe fortement au-delà. Connaissant les températures journalières atteintes les jours de canicule, on en déduit alors le nombre de décès associés à la chaleur.

Quelles canicules en Europe à l’horizon 2050 ?

Résumé ainsi, le travail paraît facile. Il exige cependant une myriade de données et repose sur de très nombreux calculs et hypothèses.

C’est cette méthode qui est employée pour estimer la surmortalité liée aux températures que l’on rencontrera d’ici le milieu ou la fin de ce siècle, en fonction, bien sûr, de différentes hypothèses de réchauffement de la planète. Elle devrait par exemple être décuplée en Europe à l’horizon 2100 dans le cas d’un réchauffement de 4 °C.

Ce chiffre est effrayant, mais il ne tient pas compte de l’adaptation à venir des hommes et des sociétés face au réchauffement. Une façon de la mesurer, pour ce qui est du passé, consiste à rechercher comment la courbe exposition-réponse à la température se déplace dans le temps. Si adaptation il y a, on doit observer une mortalité qui grimpe moins fortement avec la chaleur qu’auparavant.

C’est ce qui a été observé à Paris en comparant le risque relatif de mortalité à la chaleur entre la période 1996-2002 et la période 2004-2010. Aux températures les plus élevées, celles du quart supérieur de la distribution, le risque a diminué de 15 %.

Ce chiffre ne semble pas très impressionnant, mais il faut savoir qu’il tient uniquement compte de la mortalité le jour même où une température extrême est mesurée. Or, la mort associée à la chaleur peut survenir avec un effet de retard qui s’étend à plusieurs jours voire plusieurs semaines.

La prise en compte de cet effet diminue encore le risque entre les deux périodes : de 15 % à 50 %. Cette baisse de moitié est plus forte que celle observée dans d’autres capitales européennes comme Athènes et Rome. Autrement dit, Paris n’est pas à la traîne de l’adaptation aux canicules.

De façon générale et quelle que soit la méthode utilisée, la tendance à une diminution de la susceptibilité de la population à la chaleur se vérifie dans nombre d’autres villes et pays du monde développé. L’adaptation et la baisse de mortalité qu’elle permet y est la règle.

La baisse de la mortalité en Europe compensera-t-elle l’augmentation des températures ?

C’est une bonne nouvelle, mais cette baisse de la surmortalité reste relative. Si les progrès de l’adaptation sont moins rapides que le réchauffement, il reste possible que le nombre de morts en valeur absolue augmente. En d’autres termes, la mortalité baisse-t-elle plus vite ou moins vite que le réchauffement augmente ?

Plus vite, si l’on s’en tient à l’évolution observée dans dix pays européens entre 1985 et 2012. Comme ces auteurs l’écrivent :

« La réduction de la mortalité attribuable à la chaleur s’est produite malgré le décalage progressif des températures vers des plages de températures plus chaudes observées au cours des dernières décennies. »

En sera-t-il de même demain ? Nous avons mentionné plus haut un décuplement en Europe de la surmortalité de chaleur à l’horizon 2100. Il provient d’un article paru dans Nature Medicine qui estimait qu’elle passerait de 9 à 84 décès attribuables à la chaleur par tranche de 100 000 habitants.

Mais attention : ce nombre s’entend sans adaptation aucune. Pour en tenir compte dans leurs résultats, les auteurs de l’article postulent que son progrès, d’ici 2100, permettra un gain de mortalité de 50 % au maximum.

Au regard des progrès passés examinés dans ce qui précède, accomplis sur une période plus courte, une réduction plus forte ne semble pourtant pas hors de portée.

Surtout si la climatisation continue de se développer. Le taux d’équipement d’air conditionné en Europe s’élève aujourd’hui à seulement 19 %, alors qu’il dépasse 90 % aux États-Unis. Le déploiement qu’il a connu dans ce pays depuis un demi-siècle a conduit à une forte baisse de la mortalité liée à la chaleur.

Une moindre mortalité hivernale à prendre en compte

Derrière la question de savoir si les progrès futurs de l’adaptation permettront de réduire la mortalité liée à la chaleur de plus de 50 % en Europe, d’ici 2100, se joue en réalité une autre question : la surmortalité associée au réchauffement conduira-t-elle à un bilan global positif ou bien négatif ?

En effet, si le changement climatique conduit à des étés plus chauds, il conduit aussi à des hivers moins rudes – et donc, moins mortels. La mortalité associée au froid a été estimée en 2020 à 82 décès par 100 000 habitants. Avec une élévation de température de 4 °C, elle devrait, toujours selon les auteurs de l’article de Nature Medicine, s’établir à la fin du siècle à 39 décès par 100 000 personnes.

Si on rapporte ce chiffre aux 84 décès par tranche de 100 000 habitants liés à la chaleur, cités plus haut, on calcule aisément qu’un progrès de l’adaptation à la chaleur de 55 % suffirait pour que la mortalité liée au froid et à la chaleur s’égalisent. Le réchauffement deviendrait alors neutre pour l’Europe, si l’on examine la seule mortalité humaine liée aux températures extrêmes.

Mais chacun sait que le réchauffement est aussi à l’origine d’incendies, d’inondations et de tempêtes mortelles ainsi que de la destruction d’écosystèmes.

Sous cet angle très réducteur, le réchauffement serait même favorable, dès lors que le progrès de l’adaptation dépasserait ce seuil de 55 %. Si l’on ne considère que le cas de la France, ce seuil est à peine plus élevé : il s’établit à 56 %.

Des conclusions à nuancer

La moindre mortalité hivernale surprendra sans doute le lecteur, plus habitué à être informé et alarmé en période estivale des seuls effets sanitaires négatifs du réchauffement. L’idée déroutante que l’élévation des températures en Europe pourrait finalement être bénéfique est également dérangeante. Ne risque-t-elle pas de réduire les motivations et les incitations des Européens à diminuer leurs émissions de gaz à effet de serre ?

C’est peut-être cette crainte qui conduit d’ailleurs les auteurs de l’article de Nature Medicine à conclure que :

« La mortalité nette augmentera substantiellement si l’on considère les scénarios de réchauffement les plus extrêmes et cette tendance ne pourra être inversée qu’en considérant des niveaux non plausibles d’adaptation. »

Notons également que ces perspectives concernent ici l’Europe. Dans les pays situés à basse latitude, la surmortalité liée aux températures est effroyable. Leur population est beaucoup plus exposée que la nôtre au changement climatique ; elle est aussi plus vulnérable avec des capacités d’adaptation qui sont limitées par la pauvreté.

À l’horizon 2100, la mortalité nette liée aux températures est estimée à plus de 200 décès pour 100 000 habitants en Afrique sub-saharienne et à près de 600 décès pour 100 000 habitants au Pakistan.

Concluons qu’il ne faut pas relâcher nos efforts d’adaptation à la chaleur en Europe, quitte à ce qu’ils se soldent par un bénéfice net. Les actions individuelles et collectives d’adaptation à la chaleur sauvent des vies. Poursuivons-les. Et ne relâchons pas pour autant nos efforts de réduction des émissions, qui sauveront des vies ailleurs, en particulier dans les pays pauvres de basses latitudes.


François Lévêque a publié, avec Mathieu Glachant, Survivre à la chaleur. Adaptons-nous, Odile Jacob, 2025.

The Conversation

François Lévêque ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Soulignons, sans état d’âme, nos progrès d’adaptation depuis la canicule de 2003 – https://theconversation.com/soulignons-sans-etat-dame-nos-progres-dadaptation-depuis-la-canicule-de-2003-262091

Et si chaque territoire avait sa danse, quelle serait celle des forêts du Québec ?

Source: The Conversation – in French – By Jie Yu, Doctorat en art numérique, danse et patrimoine immatériel, Université du Québec en Abitibi-Témiscamingue (UQAT)

Est-il possible de danser les forêts et territoires de l’Abitibi-Témiscamingue ? Est-il possible que ces territoires aient une danse qui soit la leur ? Dans le cadre de mes recherches, je m’efforce justement d’éclairer ces questions, de favoriser les rencontres et partages entre le corps et la nature.

La pratique somatique, autrement dit la danse, puis les paysages culturels et naturels, sont souvent séparés, et ce pour plusieurs raisons. Il m’apparaît néanmoins, à la suite d’autres chercheurs et artistes, que leur mise en rapport ouvre de riches perspectives théoriques et artistiques.

En tant qu’artiste-chercheur, mon travail se situe à l’intersection de la danse, de l’art numérique et de l’anthropologie culturelle. Je cherche à créer des ponts entre les cultures et les territoires.

Le présent article se propose d’éclairer comment les outils numériques peuvent être utilisés pour capturer et retracer les particularités d’un paysage culturel, lesquelles particularités peuvent ensuite nourrir une pratique somatique.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


À la rencontre de nouveaux territoires

Mon projet prend place dans le territoire d’Abitibi-Témiscamingue, plus précisément dans le parc Kiwanis à Rouyn-Noranda, un lieu riche en interactions entre l’environnement et les sociétés humaines.

Explorer le territoire et rencontrer les artistes locaux est une étape cruciale du projet.

Dans le cadre de mes recherches, je considère les interactions entre la nature et l’humain comme constituant un « paysage culturel », que je retrace en fusionnant les pratiques somatiques et les traditions culturelles locales.

Par exemple, lors de ma rencontre avec Valentin Foch, membre du collectif à l’origine du projet La forêt numérique, j’ai observé comment leur approche interactive redéfinit la relation entre l’humain et son environnement à travers des installations immersives et des projections numériques qui mettent en valeur les paysages forestiers et la biodiversité régionale.

En articulant à mon tour ma réflexion aux paysages naturels locaux, je m’efforce à partir de mon propre patrimoine culturel d’envisager des dialogues entre la nature, le corps et l’art numérique.

La méthodologie de ce projet repose sur une approche en quatre étapes.

1. Recherche sur le terrain

Le travail de terrain au parc Kiwanis a débuté par une exploration systématique de l’environnement naturel. Il s’agissait d’observer la végétation, les cycles saisonniers et les dynamiques naturelles spécifiques à ce territoire. J’ai ainsi pu documenter la transformation des arbres au fil des saisons, ou les variations des couleurs et des textures des sols.

Ces observations m’ont permis d’identifier des éléments caractéristiques du paysage, tels que les mouvements répétitifs des branches sous l’effet du vent, ou le rythme des vagues sur le lac.

Le but de ma recherche consiste ensuite à traduire ces divers éléments en gestes corporels précis et reproductibles, lesquels pourront ensuite être intégrés dans ma pratique somatique.

2. Pratique somatique sur le terrain

La pratique somatique sur le terrain s’appuie sur une série d’exercices structurés visant à explorer les interactions physiques et sensorielles entre le corps et l’environnement naturel.

Chaque séance commence par une immersion complète dans le paysage, où l’observation et la sensation jouent un rôle clé. Cette étape inclut l’identification des éléments spécifiques de l’environnement, comme la direction et la vitesse du vent, la texture du sol ou les mouvements des végétaux, qui influencent directement les choix de mouvements.

Cette méthode intègre également des pauses réflexives, lors desquelles je m’assieds ou me tiens immobile pour observer comment mon corps s’adapte aux stimuli ambiants. Ces moments permettent de capturer des réactions instinctives ou inconscientes, qui enrichissent ensuite la gestuelle chorégraphique.

Ainsi, le corps devient un interprète actif du paysage.

3. La pratique écosomatique

L’écosomatique, un concept développé par le chercheur australien Raffaele Rufo, constitue un cadre essentiel dans ma démarche.

Cette approche explore comment les cycles naturels et les phénomènes écologiques influencent les expériences corporelles. Dans ce contexte, chaque mouvement réalisé sur le terrain est conçu pour refléter ou dialoguer avec les processus naturels observés, qu’il s’agisse du balancement des branches, de la progression des vagues ou des sons environnants.

Dans le cadre de mes recherches, j’ai approché l’écosomatique à partir de mon patrimoine culturel, soit le Tai-Chi et les danses folkloriques orientales. Le Tai-Chi, basé sur des mouvements circulaires et fluides, m’a permis de développer une gestuelle en harmonie avec les dynamiques naturelles du parc Kiwanis.

Par exemple, les postures d’ouverture des bras et les rotations du torse sont adaptées pour refléter la trajectoire des branches balancées par le vent.

Les danses folkloriques orientales, quant à elles, offrent une perspective culturelle unique pour enrichir les mouvements chorégraphiques. Ces danses, souvent inspirées par des éléments naturels comme les rivières, les montagnes ou les saisons, ont été adaptées pour correspondre aux caractéristiques spécifiques du paysage québécois.

En combinant ces traditions avec les observations directes du terrain, j’ai développé des mouvements qui transcendent les frontières géographiques et culturelles. Ces gestes traduisent non seulement les particularités de l’Abitibi-Témiscamingue, mais établissent également un pont entre les philosophies orientales et occidentales.

Chorégraphie et art numérique : une expérience immersive

La chorégraphie développée dans le cadre de cette recherche repose sur une analyse détaillée des interactions entre le corps humain, les éléments naturels et les traditions culturelles.

Le processus débute par une déconstruction des mouvements naturels observés pour en identifier les motifs récurrents. Par exemple, les mouvements des arbres agités par le vent ont été analysés pour isoler des séquences spécifiques, telles que des balancements rythmiques ou des rotations lentes. Ces éléments ont ensuite été traduits en gestes corporels, intégrant des transitions fluides pour capturer la continuité observée dans la nature.

L’aspect numérique de ce projet, intitulé Module d’excursion, repose sur l’utilisation de la technologie de capture de mouvement (MoCap). En portant des capteurs placés stratégiquement sur différentes parties du corps, mes mouvements chorégraphiques sont enregistrés avec précision. En outre, cette approche numérique facilite l’archivage et la transmission des pratiques chorégraphiques.

Une fois les mouvements chorégraphies enregistrés, il est possible de les visualiser pour les étudier.

Vidéo-danse et transmission interculturelle

Dans le cadre de cette recherche-création, j’ai réalisé une vidéo-danse qui met en dialogue mes origines culturelles bouyei et l’environnement québécois du parc Kiwanis. Le processus de création a combiné des choix chorégraphiques précis, une mise en scène réfléchie et des techniques de captation visuelle.

Au terme d’un travail d’observation et de rencontre, il est possible de danser un territoire particulier.

Cette vidéo-danse dépasse la simple performance artistique : elle constitue un outil de transmission culturelle. En intégrant des éléments concrets des traditions bouyei et québécoises dans un format visuel et accessible, elle offre un moyen de sensibiliser différents publics à l’importance de préserver et d’honorer le patrimoine culturel immatériel.




À lire aussi :
Construire un pont culturel entre le Québec et un peuple asiatique méconnu


En outre, cette œuvre devient non seulement une performance visuelle, mais aussi un dialogue interculturel vivant et un témoignage de la coexistence harmonieuse entre tradition et innovation.

Retombées concrètes et rayonnement

Le projet Module d’excursion a eu un impact non négligeable tant au niveau local qu’international. Après sa première projection publique au Petit Théâtre du Vieux Noranda, ce projet a été présenté à l’Université du Québec en Abitibi-Témiscamingue (UQAT), attirant un large public universitaire.

Le succès de ces projections, ainsi que la reconnaissance du deuxième prix au Concours mondial d’art-thérapie en janvier 2023, témoignent de la portée et de la pertinence de cette démarche artistique.

Le projet a également reçu de la visibilité en Chine. Sa présentation au 90ᵉ Congrès de l’Acfas en avril 2023 et son prix Régal de la ville de Rouyn-Noranda en novembre 2024 illustrent l’impact de cette initiative sur la scène culturelle locale.

La Conversation Canada

Jie Yu ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si chaque territoire avait sa danse, quelle serait celle des forêts du Québec ? – https://theconversation.com/et-si-chaque-territoire-avait-sa-danse-quelle-serait-celle-des-forets-du-quebec-246215

Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ?

Source: The Conversation – in French – By Coralie Thieulin, Enseignant chercheur en physique à l’ECE, docteure en biophysique, ECE Paris

Il fait 32 °C dans votre salon. Vous allumez le ventilateur, et en quelques secondes, une sensation de fraîcheur vous envahit. Pourtant, la température de l’air n’a pas changé. Alors, comment un simple souffle peut-il nous faire croire qu’il fait plus frais ? Pourquoi recommande-t-on aujourd’hui d’y ajouter un brumisateur ?

Ce phénomène, bien plus subtil qu’il n’y paraît, s’explique à l’interface entre physique et biologie au niveau de la peau ; et implique bien sûr notre système nerveux en ce qui concerne la perception sensorielle.


Contrairement à ce qu’on pourrait penser, un ventilateur ne refroidit pas l’air : il se contente de le mettre en mouvement. D’ailleurs, un ventilateur électrique émet un peu de chaleur en raison de son moteur qui convertit l’énergie électrique en chaleur.

Dans une pièce isolée de 1 mètre cube maintenue à -30 °C, un ventilateur peut faire monter la température de 1 °C : on voit bien que l’effet est minime et sans impact sensible dans la plupart des situations.

Ce que le ventilateur modifie, c’est notre perception. Il crée une sensation de fraîcheur, sans réellement baisser la température. Cette impression vient de notre propre corps, qui réagit aux flux d’air en activant ses mécanismes naturels de régulation thermique.

Pour comprendre cette sensation de fraîcheur, il faut donc s’intéresser à la manière dont notre organisme gère sa température interne. Car c’est là, dans les échanges constants entre notre peau, l’air et notre système nerveux, que se joue le vrai mécanisme du rafraîchissement.

En effet, le corps humain fonctionne un peu comme une machine thermique : il produit de la chaleur en permanence (quand on bouge, digère…).

Le rôle de la transpiration pour garder notre température interne à 37 °C

Pour éviter la surchauffe interne, l’organisme active un système de refroidissement très efficace : la transpiration.

Quand vous avez chaud, votre peau libère de la sueur. En s’évaporant, la sueur consomme de l’énergie (qu’on appelle la « chaleur latente de vaporisation ») : elle absorbe de la chaleur de votre corps. La sueur lui vole en quelque sorte des calories, ce qui le refroidit.

Mais ce mécanisme dépend beaucoup des conditions extérieures. Si l’air ambiant est chaud et humide, l’évaporation de la sueur devient moins efficace, car l’air est déjà presque saturé en humidité et est moins susceptible d’absorber celle de votre sueur. Résultat : vous continuez à transpirer, mais sans évaporation efficace, la sueur stagne sur la peau et n’extrait plus de chaleur. Autrement dit, elle ne vole plus les calories à votre peau qui permettraient à votre corps de se refroidir.

C’est là qu’intervient le ventilateur ! En brassant l’air saturé autour de la peau, le ventilateur le remplace par de l’air plus sec, ce qui favorise l’évaporation et aide votre corps à se refroidir.

En complément, l’utilisation d’un brumisateur apporte un refroidissement supplémentaire en projetant de fines gouttelettes d’eau sur la peau.

En ajoutant des gouttelettes, on augmente la quantité d’eau disponible pour l’évaporation, ce qui permet d’extraire davantage de chaleur de la peau et d’intensifier le refroidissement.

L’association du brumisateur et du ventilateur optimise le confort thermique dans les climats chauds en maximisant l’évaporation. En revanche, lorsque l’air est très humide et saturé de vapeur d’eau, ce mécanisme est inefficace, car l’évaporation est limitée.

Ainsi, le brumisateur est particulièrement performant dans les environnements secs, où l’air peut absorber facilement l’humidité, tandis que le ventilateur favorise le renouvellement de l’air humide autour de la peau, évitant ainsi la saturation locale et maintenant un gradient favorable à l’évaporation.

Brasser de l’air

Mais ce n’est pas tout. Même sans sueur, votre corps transfère de la chaleur à l’air ambiant : c’est la convection.

Cela signifie que l’air en contact avec votre peau se réchauffe légèrement. Quand l’air est immobile, cette couche d’air chaud reste collée à la peau comme une fine couverture.

En mettant l’air en mouvement, le ventilateur dissipe la fine couche d’air chaud qui entoure votre peau. Cela permet à la chaleur d’être évacuée plus rapidement, ce qui provoque une sensation quasi immédiate de fraîcheur.

Plus précisément, des chercheurs ont montré que, lorsque la vitesse de l’air augmente, l’évaporation de la sueur peut croître de près de 30 % pour une vitesse d’air de 2 mètres par seconde (ce qui équivaut à environ 7 kilomètres par heure). Parallèlement, la perte de chaleur par convection s’intensifie également grâce au renouvellement constant de l’air chaud proche de la peau.

Ce phénomène s’appelle l’« effet de refroidissement éolien », ou wind chill. Il explique pourquoi, en hiver, un vent fort peut vous faire ressentir un froid bien plus intense que la température réelle : par exemple, un 0 °C accompagné de vent peut être perçu comme -10 °C, car votre corps perd sa chaleur plus vite.

Température réelle, température ressentie

En été, c’est le même principe : le souffle du ventilateur ne fait pas baisser la température de la pièce, mais il favorise la perte de chaleur corporelle, donnant l’illusion que l’air ambiant est plus frais. C’est une température ressentie plus basse, pas une température réelle.

Un ventilateur est donc bien un allié optimal. Il n’abaisse pas la température de l’air, mais accélère la perte de chaleur de votre corps. Il facilite ainsi vos mécanismes naturels de refroidissement tels que l’évaporation de la sueur, la convection de la chaleur, la perception sensorielle de l’air en mouvement.

En réalité, l’air reste à la même température : c’est vous qui refroidissez plus vite… et votre cerveau traduit cette perte de chaleur par une agréable sensation de fraîcheur !




À lire aussi :
Des canicules au froid glacial, comment corps et cerveau s’allient pour percevoir la température


Ce processus n’est pas trivial. Il repose sur une interaction complexe entre des récepteurs sensoriels situés dans la peau et des régions spécifiques du cerveau, notamment le cortex insulaire postérieur. Ces récepteurs détectent les variations de température corporelle et transmettent ces informations au cerveau, qui les intègre pour générer une sensation consciente de fraîcheur.

Ainsi, ce que vous ressentez comme une fraîcheur agréable est en réalité une perception cérébrale fine et sophistiquée de la baisse réelle de la température de votre corps.

The Conversation

Coralie Thieulin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi un ventilateur donne-t-il un sentiment de fraîcheur ? – https://theconversation.com/pourquoi-un-ventilateur-donne-t-il-un-sentiment-de-fraicheur-262144

Que révèlent vraiment les « premières » images du télescope Vera-C.-Rubin ?

Source: The Conversation – in French – By Pierre-Alain Duc, Directeur de recherche au CNRS, directeur de l’Observatoire astronomique de Strasbourg, Université de Strasbourg

Zoom dans l’amas de la Vierge. Cette image fait partie des « premières » images prises par le télescope Vera-C.-Rubin. NSF–DOE Vera-C.-Rubin Observatory, CC BY

L’observatoire Vera-C.-Rubin vient de débuter un grand sondage du ciel, le Legacy Survey of Space and Time (LSST) et a livré en juin 2025 de « premières » images au grand public : une grandiose visualisation d’une partie de l’amas de galaxies de la Vierge.

Mais de telles « premières » images ont une importance qu’il convient de relativiser, ou tout au moins recontextualiser car leur intérêt n’est pas forcément celui que l’on croit ou voit immédiatement.

Les images de Vera-C. Rubin se distinguent par la taille de leur champ exceptionnellement grande et la rapidité du nouvel observatoire, qui lui permet de cartographier des lumières même ténues sur une grande partie du ciel plusieurs fois par mois.


La « première lumière » d’un nouvel observatoire est un évènement symbolique et médiatique. Les images dévoilées ce jour-là au public ne sont en effet pas les vraies premières acquisitions – ces dernières servent des objectifs purement techniques et n’ont que peu d’intérêt pour le public. Elles ne témoignent pas forcément des buts scientifiques primaires qui ont motivé la construction du télescope. Elles existent essentiellement pour impressionner et susciter l’intérêt : pour cela, elles doivent posséder une valeur esthétique… qui ne doit pas occulter les performances techniques de l’instrument qui les a générées.

En quoi, alors, cette « première » image du sondage Legacy Survey of Space and Time (LSST), centrée sur l’amas de galaxies de la Vierge, est-elle originale et doit-elle nous interpeller ?

Parce qu’elle dévoile des astres encore inconnus ?

Pas tout à fait. Les structures les plus remarquables, visibles sur cette image, étaient familières, comme ce couple de spirales vues de face (au centre, à droite), cette galaxie naine mais étonnamment étendue et diffuse (en haut à droite) ou, enfin, ces spectaculaires traînées stellaires qui relient plusieurs galaxies d’un groupe situé à l’arrière-plan (en haut à droite), fruits de collisions en cours qui arrachent les étoiles à leurs galaxies.

Ces queues dites « de marée » avaient déjà été cartographiées par des caméras d’ancienne génération, comme Megacam sur le vénérable Canada-France-Hawaii Telescope (CFHT).

Parce que sa qualité optique est exceptionnelle ?

Obtenue depuis le sol, et subissant la turbulence de l’atmosphère qui floute toute lumière venue de l’espace, sa finesse est loin des standards des télescopes spatiaux Hubble, James-Webb ou Euclid, qui présentent une résolution spatiale de 5 à 10 fois meilleure.

Parce qu’elle présente d’éclatantes couleurs ?

Certes, mais depuis que le sondage du Sloan Digital Sky Survey (SDSS) a démarré en 2000, il a systématiquement observé une grande partie du ciel dans des bandes devenues standards (u,g,r,i,z) et a combiné ses images pour produire de « vraies couleurs ». Le public s’est habitué à une vision colorée des objets astronomiques.




À lire aussi :
Comment sont façonnées les images du ciel? Dans les pas du télescope pionnier Hubble


Désormais, chaque nouvelle mission utilise sa propre palette qui varie selon le jeu utilisé de filtres.

Parce qu’elle dispose de canaux de diffusion importants ?

Certainement ! Les États-Unis ont une culture de médiation scientifique bien plus développée qu’en Europe, et leurs agences, dont le département de l’énergie américain et la Fondation nationale pour la science qui portent le projet LSST, accordent des moyens financiers conséquents aux actions de communication, relayées par l’ensemble des partenaires, parmi lesquels, en France, le CNRS dont l’Institut nucléaire et particules est chargé, entre autres, d’une grande partie de la chaîne de traitement des données.

Mais faut-il pour autant faire la fine bouche face à cette belle, mais pas si originale image produite par le LSST ? Assurément, non ! Elle mérite vraiment de s’y intéresser – non donc par ce qu’elle montre, mais par ce qu’elle cache !

Ce que cachent les premières images du nouveau télescope Vera-C.-Rubin et de son sondage LSST : un potentiel énorme et une prouesse technique

Ce qui est réellement derrière cette image, c’est un potentiel scientifique énorme, lui-même résultat d’une prouesse technique remarquable.

L’image a été acquise avec la plus grande caméra au monde. Elle dispose d’un capteur de 3,2 milliards de pixels (en fait une mosaïque de 189 capteurs CCD), soit 100 fois plus qu’un appareil photo classique.

Cette débauche de pixels permet de couvrir un champ de vue sans précédent de 9,6 degrés carrés, soit 45 fois la taille apparente de la pleine Lune ou 35 000 fois celui de la caméra du télescope spatial Hubble.

Avec cette vision large, le LSST pourra cartographier la surface totale de l’amas de la Vierge en seulement 10 clichés (l’image présentée ici ne couvre qu’une partie de l’amas), et quelques dizaines d’heures d’observations, contre quelques centaines d’heures pour le télescope Canada-France-Hawaii, avec lequel nous osions une comparaison plus haut.

La taille de la caméra du LSST est digne de celle de son télescope, pourvu d’un miroir de 8,4 mètres, le plus grand au monde entièrement consacré à l’imagerie. Avec une telle machinerie, l’ensemble du ciel austral peut être observé en seulement trois jours, des performances idéales pour repérer les phénomènes transitoires du ciel, comme les supernovae ou pour découvrir des astéroïdes dont la position varie d’une image sur l’autre.

Chaque nuit d’observation, les terabytes de données s’accumulent et, pendant les dix ans du sondage, les images vont être empilées pour in fine atteindre une sensibilité inégalée, mettant en jeu une chaîne de traitement complexe sans commune mesure avec celles mises en œuvre pour les sondages anciens.

Cette base de données qui, comme le grand vin, se bonifie avec le temps, permettra d’effectuer des avancées dans de multiples domaines de l’astrophysique, de la physique stellaire à la cosmologie.

Alors, oui, il est tout à fait légitime d’être impressionné par cette première image du LSST et par le potentiel de découvertes qu’elle dévoile.

Et pour finir, il convient de rappeler que l’observatoire qui l’a acquise, installé dans le désert chilien de l’Atacama, honore par son nom l’astrophysicienne Vera Rubin, à l’origine de la découverte de la matière noire dans les galaxies. Donner un nom de femme à un projet astronomique d’envergure est aussi une première !

The Conversation

Pierre-Alain Duc ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Que révèlent vraiment les « premières » images du télescope Vera-C.-Rubin ? – https://theconversation.com/que-revelent-vraiment-les-premieres-images-du-telescope-vera-c-rubin-262066

Nos GPS ont besoin de voir les trous noirs pour fonctionner, mais le wifi et les téléphones portables brouillent leur détection

Source: The Conversation – in French – By Lucia McCallum, Senior Scientist in Geodesy, University of Tasmania

Certains trous noirs servent de points de repère à la géodésie pour localiser précisément la Terre dans l’espace. ESA/Hubble/L. Calçada (ESO), CC BY

La pollution électromagnétique a des conséquences inattendues. Par exemple, l’encombrement du spectre radioélectrique complique le travail des radiotélescopes. Ce que l’on sait rarement, c’est que ces télescopes ne servent pas seulement à faire de la recherche en astronomie : ils sont indispensables à certains services essentiels à notre civilisation… le GPS, par exemple !


Les scientifiques qui mesurent avec précision la position de la Terre sont aujourd’hui confrontés à un problème de taille. Leurs données sont essentielles au fonctionnement des satellites utilisés pour la navigation, pour les télécommunications et pour l’observation de la planète. Ce que l’on sait moins, c’est que ces mesures – issues d’une discipline appelée « géodésie » – dépendent du suivi de trous noirs situés dans des galaxies lointaines.

Le problème, c’est que, pour suivre ces trous noirs, les scientifiques ont besoin d’utiliser des bandes de fréquences spécifiques sur le spectre radioélectrique. Et avec la montée en puissance du wifi, des téléphones portables et d’Internet par satellite, il y a un embouteillage sur ces fameuses bandes de fréquence.

Pourquoi avons-nous besoin des trous noirs ?

Les satellites et les services qu’ils fournissent sont devenus essentiels à la vie moderne. De la navigation ultraprécise sur nos téléphones au suivi du changement climatique, en passant par la gestion des chaînes logistiques mondiales, le fonctionnement des réseaux électriques ou des transactions bancaires en ligne, notre civilisation ne peut pas se passer de ces compagnons en orbite.

Mais pour utiliser les satellites, il faut savoir précisément où ils se trouvent à tout moment. Leur positionnement repose sur ce qu’on appelle la « chaîne d’approvisionnement géodésique mondiale ».

Cette chaîne commence par l’établissement d’un référentiel de coordonnées stable sur lequel baser toutes les autres mesures. Comme les satellites se déplacent sans cesse autour de la Terre, que la Terre elle-même tourne autour du Soleil, et que le Soleil se déplace dans la galaxie, ce référentiel doit être soigneusement calibré à partir d’objets externes relativement fixes.

Or les meilleurs points d’ancrage que l’on connaisse sont les trous noirs, situés au cœur de galaxies lointaines, qui émettent des jets de rayonnement en dévorant des étoiles et du gaz.

Grâce à une technique appelée « interférométrie à très longue base », les scientifiques peuvent relier un réseau de radiotélescopes pour capter leurs signaux et pour dissocier les mouvements de rotation ou d’oscillation de la Terre de ceux des satellites.

Le rôle important des ondes radio

En effet, les radiotélescopes permettent de détecter les ondes radio émises par les trous noirs. Celles-ci traversent l’atmosphère sans difficulté, de jour comme de nuit et par tous les temps.

Mais ces ondes radio sont également utilisées pour les communications terrestres – wifi, téléphonie mobile, etc. L’utilisation des différentes fréquences est strictement encadrée, et quelques bandes étroites seulement sont réservées à l’astronomie radio.

Dans les décennies passées, toutes les bandes étaient encore peu usitées, et les scientifiques n’hésitaient pas à empiéter sur celles non réservées pour mieux capter les signaux des trous noirs… Mais aujourd’hui, si on souhaite que la géodésie atteigne la précision requise par nos technologies, on ne peut plus se contenter des bandes réservées à l’astronomie.

Des usages concurrents

Ces dernières années, la pollution électromagnétique d’origine humaine a explosé. Lorsque le wifi et la téléphonie mobile se sont développés, les scientifiques ont dû se rabattre sur des fréquences plus élevées.

Mais les bandes libres se font rares. Six générations de téléphonie mobile, chacune occupant une nouvelle fréquence, encombrent désormais le spectre, sans compter les milliers de satellites qui envoient directement des connexions Internet vers la Terre.

Aujourd’hui, la multitude de signaux est souvent trop puissante pour que les observatoires géodésiques puissent distinguer les très faibles signaux en provenance des trous noirs – ce qui menace, à terme, le fonctionnement de nombreux services satellitaires.

Que peut-on faire ?

Pour continuer à fonctionner à l’avenir et pour maintenir les services dont nous dépendons, la géodésie a besoin de davantage de bandes de fréquence.

Lors du partage du spectre radio à l’occasion des grandes conférences internationales, les géodésiens doivent absolument être présents à la table des négociations.

Parmi les solutions envisagées, on peut aussi imaginer des zones de silence radio autour des radiotélescopes essentiels. Un travail est également en cours avec les opérateurs de satellites pour éviter que leurs émissions radio ne soient dirigées directement vers ces télescopes.

Quoi qu’il en soit, toute solution devra être globale. Pour les mesures géodésiques, les radiotélescopes sont interconnectés à l’échelle de la planète, ce qui permet de simuler un télescope grand comme la Terre. Or, aujourd’hui, l’attribution des fréquences du spectre radio est principalement gérée par chaque État de manière indépendante, ce qui complique une quelconque coordination.

La première étape est peut-être de mieux faire connaître ce problème. Si nous voulons que les GPS fonctionnent, que les supermarchés soient approvisionnés et que nos virements bancaires arrivent à bon port, nous devons garder une vue dégagée sur les trous noirs des galaxies lointaines – ce qui signifie désengorger le spectre radio.

The Conversation

Lucia McCallum ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Nos GPS ont besoin de voir les trous noirs pour fonctionner, mais le wifi et les téléphones portables brouillent leur détection – https://theconversation.com/nos-gps-ont-besoin-de-voir-les-trous-noirs-pour-fonctionner-mais-le-wifi-et-les-telephones-portables-brouillent-leur-detection-260232

La pauvreté de masse : symptôme d’une crise de la cohésion sociale

Source: The Conversation – France in French (3) – By Hugo Spring-Ragain, Doctorant en économie / économie mathématique, Centre d’études diplomatiques et stratégiques (CEDS)

En 2023, le taux de pauvreté a dépassé 15 % en France. Cela n’est pas tant le résultat d’une conjoncture économique défavorable que la conséquence de changements structurels emportant des mutations de long terme. Le sujet mérite d’autant plus d’être observé car, au-delà de la situation des personnes concernées, il remet en cause la stabilité des institutions politiques.


En 2023, la France a enregistré un taux de pauvreté monétaire record, atteignant 15,4 %, soit un niveau inédit depuis 1996. La question de la soutenabilité du modèle socio-économique des démocraties occidentales revient au premier plan. Cette progression de la pauvreté ne relève pas uniquement d’un choc conjoncturel, mais témoigne d’une mutation plus profonde du rapport entre croissance, redistribution et cohésion sociale. Le retour de la pauvreté de masse, y compris dans des catégories jusqu’ici intégrées au salariat protégé, signale une possible rupture de régime dans la promesse implicite d’ascension sociale et de protection des plus vulnérables.

La conjoncture n’explique pas tout

Le taux de pauvreté monétaire a atteint 15,4 % en France en 2023, soit le niveau le plus élevé depuis 1996. Cette progression significative (+0,9 point en un an, soit environ 650 000 personnes supplémentaires) interroge profondément les fondements socio-économiques des pays développés. Loin d’un simple effet de conjoncture (inflation, crise énergétique ou guerre en Ukraine), cette inflexion marque une tendance structurelle : la multiplication des zones de précarité latente – vulnérabilité économique persistante, souvent masquée par l’emploi ou des ressources instables, mais exposée au moindre choc – dans les segments inférieurs et médians de la distribution des revenus.




À lire aussi :
Polanyi, un auteur pour mieux comprendre ce qui nous arrive


Les déterminants structurels de l’augmentation de la pauvreté sont multiples : montée des emplois atypiques (et ubérisation), stagnation des salaires réels pour les déciles médians, dualisation du marché du travail, déformation du partage de la valeur ajoutée au détriment du facteur travail et réduction de l’investissement public dans certains services collectifs essentiels. À cela s’ajoutent des dynamiques territoriales inégalitaires où les zones rurales, périurbaines et certains centres urbains dégradés cumulent désindustrialisation, isolement social et sous-dotation en infrastructures publiques comme privées.

Figure – Évolution comparée des niveaux de vie (D1, D5, D9) en France, 1996–2023, avant et après redistribution. – Source : Insee

Lecture : les courbes montrent l’évolution des revenus des 1er, 5e et 9e déciles, en euros constants (base 100 en 2008). Avant redistribution, les écarts sont beaucoup plus prononcés, notamment entre D1 et D9. L’effet redistributif réduit significativement ces écarts, mais ne suffit pas à inverser les dynamiques inégalitaires de long terme. La stagnation du bas de l’échelle (D1) reste visible même après transferts sociaux, alors que le haut (D9) progresse nettement.

Des amortisseurs sociaux de moins en moins opérants

Si les transferts sociaux jouent encore un rôle crucial dans la réduction de la pauvreté (le taux brut atteindrait 21,7 % sans redistribution), leur efficacité relative diminue. Non seulement ils ne parviennent plus à enrayer la montée tendancielle de la pauvreté, mais ils peinent aussi à répondre à la complexité des situations contemporaines : travailleurs pauvres, jeunes diplômés sous-employés, femmes seules avec enfants ou encore retraités vivant sous le seuil de pauvreté (1288 euros).

Ce glissement progressif traduit une rupture dans le compromis fordiste sur lequel reposait la cohésion des économies occidentales : emploi stable, protection sociale contributive et croissance redistributive. Il met également en tension la soutenabilité politique du modèle social à mesure que les classes moyennes perçoivent ces transferts comme moins universels et plus segmentés.

Ce phénomène n’est pas propre à la France : les économies occidentales dans leur ensemble connaissent une montée d’une pauvreté dite « intégrée », c’est-à-dire présente au sein même du salariat. Dans les pays de l’OCDE, plus de 7 % des travailleurs sont aujourd’hui pauvres, signe que l’emploi ne protège plus systématiquement du besoin. Cette évolution remet en cause le postulat selon lequel le marché du travail constitue un vecteur naturel d’intégration économique et sociale. En parallèle, les écarts de niveau de vie entre les déciles extrêmes s’élargissent, accentuant la fragmentation du tissu social.

Les classes moyennes déstabilisées

Au-delà de la pauvreté en tant que phénomène statistique, c’est l’évolution relative des positions sociales qui alimente un sentiment profond de déclassement. Les classes moyennes, longtemps considérées comme les piliers de la stabilité démocratique et de la croissance domestique, sont désormais prises en étau. D’un côté, la paupérisation des actifs précaires et la fragilité de l’emploi fragmenté ; de l’autre, l’accumulation exponentielle de capital chez les 10 % les plus riches et plus encore chez les 1 % supérieurs. Il est ici essentiel de distinguer les flux de revenus (salaires, prestations) des stocks patrimoniaux, dont la concentration alimente des écarts croissants sur le long terme, indépendamment des efforts individuels.

Cette polarisation résulte de dynamiques économiques profondes : concentration du capital immobilier et financier, désindexation salariale, évolution défavorable du capital humain dans les secteurs intermédiaires et fiscalité régressive dans certains segments. Les gains de productivité ne se traduisent plus par des hausses de salaire ; la fonction d’utilité des agents tend à se contracter dans les déciles intermédiaires et les effets de seuils fiscaux, sociaux ou réglementaires amplifient les discontinuités dans les trajectoires de vie.

Perte de foi dans la promesse méritocratique

On assiste ainsi à une recomposition en sablier de la structure sociale : précarité durable en bas, enrichissement du haut, et effritement du centre. Dans ce contexte, la perception d’une mobilité sociale bloquée, ou, pire, inversée renforce le désengagement civique, la frustration relative et la radicalisation des préférences politiques. Ce que révèlent les indicateurs de pauvreté ne relève donc pas uniquement d’un appauvrissement objectif mais bien d’une perte d’espérance en la promesse méritocratique au cœur de la légitimation démocratique.

France 24 – 2025.

La situation est d’autant plus préoccupante que les variables d’ajustement traditionnelles comme l’éducation, le travail qualifié ou l’accession à la propriété ne jouent plus leur rôle d’ascenseur. L’immobilité relative des positions intergénérationnelles, combinée à l’explosion du coût de l’entrée dans la classe moyenne (logement, études, santé), tend à enfermer les individus dans leur position initiale. Autrement dit, la pauvreté s’ancre dans des dynamiques d’exclusion durables plus difficilement réversibles que par le passé.

Une crise de soutenabilité du contrat social démocratique

L’universalité du filet de sécurité et la promesse de mobilité sociale ascendante constituaient les deux piliers implicites du contrat social des économies libérales avancées, or ces deux fondements sont aujourd’hui ébranlés. L’universalité tend à se fragmenter sous l’effet de ciblages budgétaires croissants et d’un tri social plus restrictif dans l’accès aux droits sociaux. La mobilité, quant à elle, est de moins en moins portée par les fonctions traditionnelles de l’école, de l’emploi et du logement.

La question centrale devient donc : nos démocraties disposent-elles encore des moyens économiques et politiques pour corriger les déséquilibres que leur propre trajectoire historique a produits ? Plusieurs options sont sur la table : réforme de la fiscalité sur les hauts patrimoines, réinvestissement dans les infrastructures sociales, redéfinition des politiques d’emploi, expérimentation de mécanismes de revenu minimum garanti, remise à zéro du modèle social. Mais leur mise en œuvre se heurte à une contrainte majeure : le consentement fiscal des classes moyennes, précisément celles dont la position socio-économique est la plus fragilisée.

Le taux de pauvreté à 15,4 % est plus qu’un indicateur social. Il traduit une perte d’efficacité du modèle redistributif, une fragmentation des trajectoires individuelles et une mise en tension du pacte démocratique. Le défi est donc double : restaurer une forme d’égalité réelle tout en reconstruisant les conditions d’un consentement collectif à la solidarité.

The Conversation

Hugo Spring-Ragain ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La pauvreté de masse : symptôme d’une crise de la cohésion sociale – https://theconversation.com/la-pauvrete-de-masse-symptome-dune-crise-de-la-cohesion-sociale-261486