La loi de Moore ayant atteint ses limites, que nous réserve l’avenir de l’informatique ?

Source: The Conversation – in French – By Domenico Vicinanza, Associate Professor of Intelligent Systems and Data Science, Anglia Ruskin University

Pendant près d’un demi-siècle, le nombre de transistors sur une puce a doublé approximativement tous les deux ans. Sax/Shutterstock

Après un demi-siècle de gains réguliers en puissance de calcul, l’informatique entre dans une nouvelle ère. La miniaturisation ne suffit plus : les progrès dépendent désormais de l’architecture, de l’énergie et de logiciels optimisés.


Pendant un demi-siècle, l’informatique a progressé de manière rassurante et prévisible. Les transistors – ces dispositifs qui servent à contrôler le passage des signaux électriques sur une puce informatique – sont devenus de plus en plus petits, ce qui permet d’en amasser davantage sur une seule puce. En conséquence, les puces ont gagné en rapidité, et la société a intégré ces avancées presque sans s’en rendre compte.

Ces puces plus rapides ont offert une puissance de calcul accrue en permettant aux appareils d’exécuter les tâches plus efficacement. On a ainsi vu les simulations scientifiques s’améliorer, les prévisions météorologiques gagner en précision, les images devenir plus réalistes, puis les systèmes d’apprentissage automatique émerger et se développer. Tout se passait comme si la puissance de calcul obéissait à une loi naturelle.

La fin des certitudes

Ce phénomène a pris le nom de loi de Moore, d’après l’homme d’affaires et scientifique Gordon Moore. Elle résumait l’observation empirique selon laquelle le nombre de transistors sur une puce doublait approximativement tous les deux ans. Cela permettait aussi de réduire la taille des appareils et alimentait en conséquence la miniaturisation.

Ce sentiment de certitude et de prévisibilité a désormais disparu, non pas parce que l’innovation se serait arrêtée, mais parce que les hypothèses physiques qui la soutenaient autrefois ne sont plus valables.

Qu’est-ce qui remplace alors l’ancien modèle d’augmentation automatique des performances ? La réponse ne tient pas à une seule avancée technologique, mais à plusieurs stratégies qui se superposent.

De nouvelles approches

L’une d’elles repose sur de nouveaux matériaux et de nouvelles architectures de transistors. Les ingénieurs améliorent encore leur conception afin de limiter les pertes d’énergie et les fuites électriques indésirables. Ces évolutions apportent des gains plus modestes et plus progressifs qu’autrefois, mais elles permettent de mieux maîtriser la consommation énergétique.

Une autre approche consiste à modifier l’organisation physique des puces. Au lieu de disposer tous les composants sur une surface plane unique, les puces modernes empilent de plus en plus les éléments les uns sur les autres ou les rapprochent davantage. Cela réduit la distance que doivent parcourir les données, ce qui permet de gagner à la fois en temps et en énergie.

Le changement le plus important est sans doute la spécialisation. Au lieu de confier toutes les tâches à un unique processeur polyvalent, les systèmes modernes combinent différents types de processeurs. Les unités de traitement traditionnelles, ou CPU, assurent le contrôle et la prise de décision. Les processeurs graphiques sont des unités de calcul très puissantes, conçues à l’origine pour répondre aux exigences du rendu graphique dans les jeux vidéo et d’autres usages. Les accélérateurs d’IA (du matériel spécialisé qui accélère les tâches liées à l’intelligence artificielle) se concentrent sur l’exécution en parallèle d’un très grand nombre de calculs simples. Les performances dépendent désormais de la manière dont ces composants fonctionnent ensemble, plutôt que de la vitesse de chacun pris isolément.

Des technologies expérimentales

Parallèlement à ces évolutions, les chercheurs explorent des technologies plus expérimentales, notamment les processeurs quantiques (qui exploitent les principes de la physique quantique) et les processeurs photoniques, qui utilisent la lumière plutôt que l’électricité.

Il ne s’agit pas d’ordinateurs polyvalents, et ils ont peu de chances de remplacer les machines classiques. Leur intérêt réside dans des domaines très spécifiques, comme certains problèmes d’optimisation ou de simulation, pour lesquels les ordinateurs traditionnels peinent à explorer efficacement un grand nombre de solutions possibles. En pratique, ces technologies doivent être envisagées comme des coprocesseurs spécialisés, utilisés de manière ciblée et en complément des systèmes traditionnels.

Pour la plupart des usages informatiques du quotidien, les progrès des processeurs conventionnels, des systèmes de mémoire et de la conception logicielle resteront bien plus déterminants que ces approches expérimentales.

Pour les utilisateurs, l’ère post-Moore ne signifie pas que les ordinateurs cesseront de s’améliorer. Cela veut juste dire que les progrès se manifesteront de manière plus inégale et plus dépendante des usages. Certaines applications — comme les outils fondés sur l’IA, le diagnostic, la navigation ou la modélisation complexe — pourraient connaître de vraies avancées, tandis que les performances généralistes progresseront plus lentement.

Nouvelles technologies

Lors de la conférence Supercomputing SC25 à Saint-Louis, plusieurs systèmes hybrides associant CPU (processeurs), GPU (processeurs graphiques) et technologies émergentes — comme les processeurs quantiques ou photoniques — ont été présentés comme des prolongements concrets de l’informatique classique. Pour l’immense majorité des usages quotidiens, ce sont toutefois les progrès des processeurs traditionnels, des mémoires et des logiciels qui continueront d’apporter les gains les plus significatifs.

On note un intérêt croissant pour les dispositifs quantiques et photoniques comme coprocesseurs, et non comme remplaçants. Ils sont particulièrement utiles pour des problèmes très spécifiques, comme l’optimisation ou le routage complexes, où les machines classiques seules peinent à trouver des solutions efficaces.

Dans ce rôle d’appoint, ils offrent un moyen crédible d’allier la fiabilité de l’informatique classique à de nouvelles techniques de calcul, élargissant ainsi les capacités des systèmes.

Un nouveau récit

La suite n’est pas une histoire de déclin, mais un processus de transformation et d’évolution permanentes. Les progrès en informatique reposent désormais sur la spécialisation des architectures, une gestion rigoureuse de l’énergie et des logiciels conçus en tenant pleinement compte des contraintes matérielles. Le risque est de confondre complexité et inéluctabilité, ou narratifs marketing et problèmes réellement résolus.

L’ère post-Moore impose une relation plus réaliste avec l’informatique : la performance n’est plus un acquis automatique lié à la miniaturisation des transistors, mais un résultat qu’il faut concevoir, justifier et payer – en énergie, en complexité et en compromis.

The Conversation

Domenico Vicinanza ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La loi de Moore ayant atteint ses limites, que nous réserve l’avenir de l’informatique ? – https://theconversation.com/la-loi-de-moore-ayant-atteint-ses-limites-que-nous-reserve-lavenir-de-linformatique-274553

Les fusions de communes tiennent-elles leurs promesses  ?

Source: The Conversation – in French – By Gabriel Bideau, Géographe, Université Paris Cité

L’entrée d’Épinay-le-Comte, membre de la commune nouvelle de Passais-Villages, formée en 2016 de la fusion de trois communes de l’Orne, en Normandie. Gabriel Bideau, Fourni par l’auteur

Les 15 et 22 mars prochains, les Français voteront pour élire leurs conseils municipaux. Certains d’entre eux voteront dans des « communes nouvelles », créées par fusion de plusieurs communes. Dix ans après les premières vagues importantes de regroupements, le recul est suffisant pour proposer un premier bilan de cette politique.


L’idée (discutable) selon laquelle il serait nécessaire de réduire le nombre de communes françaises est ancienne et répétée par plusieurs acteurs : le gouvernement vient d’ailleurs d’accélérer l’examen d’un projet de loi sur ce sujet.

Plusieurs mesures ont été prises ces dernières années pour encourager les communes à se regrouper. Ainsi, le statut de « commune nouvelle » a été créé en 2010, et amendé à plusieurs reprises : il permet le regroupement – certains acteurs répugnent à parler de « fusions » – de plusieurs communes au sein d’une nouvelle entité. Celle-ci détient alors toutes les compétences communales mais a la possibilité de maintenir en son sein une existence légale (bien que largement symbolique) pour les anciennes communes, devenant « communes déléguées ». Des incitations fiscales ont également été instituées depuis 2014.

Aujourd’hui, on compte 844 communes nouvelles, rassemblant 2 724 communes historiques et près de 3 millions d’habitants. Alors que les communes nouvelles créées en 2015 (année de la première vague importante de fusions) ont passé leur première décennie et à l’approche des élections municipales de mars 2026, il est opportun de faire un point d’étape sur ce phénomène, entre autres car il fait l’objet d’un certain nombre d’idées reçues.

Idée reçue n°1 : « Les communes qui fusionnent sont les toutes petites communes rurales »

Verdict : Plutôt faux

La politique de réduction du nombre de communes en France s’appuie sur l’idée qu’il y aurait trop de communes de toute petite taille. Il est vrai que les communes françaises sont moins peuplées que les entités comparables dans d’autres pays, et qu’elles sont plus nombreuses.

Cependant, le raisonnement selon lequel il faudrait réduire le nombre de communes pour que, en fusionnant, elles arrivent à rassembler chacune une « masse critique » en termes de population est pour le moins débattu. Les différentes études portant sur une éventuelle « taille optimale » ont bien du mal à l’identifier : il n’existe pas de seuil démographique au-delà duquel une commune serait plus efficace qu’en dessous.

En partant néanmoins du principe, débattu donc, que les toutes petites communes poseraient problème pour l’efficacité de l’action publique, les fusions permettent-elles de résoudre cette difficulté ? Globalement, non.

Les toutes petites communes (moins de 200 habitants) sont plutôt sous-représentées dans les communes fusionnantes par rapport à la proportion qu’elles représentent dans l’ensemble des communes françaises. Les communes qui fusionnent ont en effet une population médiane (404 habitants) proche de celle des autres communes (426 habitants).

Au final, la proportion de communes de moins de 200 habitants est passée, depuis 2012, de 25,9 % à 25,4 %. Si l’objectif premier de la politique des communes nouvelles était de réduire drastiquement le nombre de très petites communes, on peut dire selon l’adage que, faute d’être un échec, « ça n’a pas marché ».

Les très petites communes ne sont pas surreprésentées parmi les communes fusionnantes

Un graphique montrant la proportion de communes fusionnantes comparée à la proportion des communes inchangées, par tranches de population
Ce graphique illustre la proportion de communes fusionnantes (en rouge) comparée à la proportion de communes inchangées (en bleu), par tranche de population. On peut voir qu’il n’y a pas de surreprésentation des petites communes parmi les communes fusionnantes, puisqu’aucune différence significative entre leur proportion parmi les communes fusionnantes et parmi les communes inchangées n’existe. Seule exception : les communes entre 200 et 500 habitants, légèrement surreprésentées parmi les communes fusionnantes (32 %, contre 29 % des communes inchangées).
Fourni par l’auteur

Les communes fusionnantes ne sont pas non plus systématiquement rurales. Ainsi, 6,7 % des communes fusionnantes sont dans une agglomération. Cela paraît peu, mais sur l’ensemble des communes françaises les communes situées en agglomération ne représentent que 12,7 %. Les communes nouvelles sont donc un peu plus fréquentes dans les espaces éloignés des pôles urbains, sans toutefois y être limitées.

Idée reçue n°2 : « Les fusions communales permettent de mettre en cohérence les territoires vécus et les territoires administratifs »

Verdict : C’est plus compliqué

François Baroin, qui clôturait en 2017 en tant que président de l’Association des maires de France (AMF) la 3ᵉ rencontre des communes nouvelles, considérait que « ce sont les bassins de vie qui ont créé les conditions de l’avancement de la coopération entre les communes », faisant sans doute référence à l’idée d’un espace au sein duquel les individus se déplacent pour leur travail, leurs loisirs et leurs achats.

Or, les communes nouvelles ne se créent que partiellement en cohérence avec les territoires vécus. Si on s’intéresse aux communes fusionnantes qui appartenaient à une aire urbaine en 2014 (avant la très grande majorité des fusions), 35 % d’entre elles ont fusionné avec d’autres communes n’appartenant pas à la même aire urbaine. Si on s’intéresse spécifiquement aux déplacements domicile-travail, dans 72 % des cas le principal flux sortant de la commune fusionnante ne va pas vers une commune avec laquelle elle fusionne, mais vers une commune tierce. Il y a donc bien persistance d’une différence entre le maillage administratif et les territoires pratiqués et vécus par les habitants.

Idée reçue n°3 : « Les fusions communales permettent de faire des économies d’échelle »

Verdict : Plutôt faux

Des acteurs comme l’AMF mettent en avant l’idée que les fusions permettraient presque automatiquement de réaliser des économies d’échelle, c’est-à-dire de mutualiser des coûts pour faire baisser les dépenses totales. Or, une étude des évolutions budgétaires entre 2011 et 2022 contredit ce présupposé. Ces résultats se retrouvent également dans une étude portant sur les communes créées en 2016, 2017 et 2019. On n’observe pas une diminution des dépenses : bien au contraire, en général celles-ci augmentent nettement dans les années suivant la fusion.

Par exemple, si on regarde spécifiquement l’évolution entre 2011 et 2022 des charges de fonctionnement des communes (c’est-à-dire leurs dépenses hors investissement), le groupe des communes fusionnantes a connu une augmentation plus importante (+31 %) que le groupe des autres communes françaises (+28 %).

Un processus mené par le haut, qui semble favoriser l’abstention

Deux derniers points peuvent être relevés.

Tout d’abord, le passage en commune nouvelle est décidé par les conseils municipaux des communes fusionnantes, qui n’ont pas l’obligation de consulter la population. Fréquemment, les élus ne lui laissent d’ailleurs qu’une place limitée dans la construction des décisions, soit par crainte d’ouvrir une « boîte de Pandore » démocratique poussant à la remise en question systématique des décisions prises, soit par méfiance envers les décisions des populations, perçues comme peu éclairées. Un maire interrogé dans le cadre de mes travaux affirmait ainsi en 2016 : « Les gens vont voter pour quelque chose, mais ils ne savent pas forcément tout à fait les tenants et les aboutissants. Donc […] à mon avis, ce n’est pas la bonne solution. »

Par exemple, concernant le nom de la nouvelle commune, il est fréquent que les administrés soient invités à en proposer, voire à voter pour celui qu’ils préfèrent. En revanche, ce sont les élus qui vont conserver la main sur la décision finale ou sur les modalités de choix (par exemple en décidant des noms qui seront soumis à la consultation), permettant, in fine, d’orienter le vote. Cela pose la question de la place réelle laissée aux populations dans ces formes de participation ou de consultation.

Enfin, on observe aussi une montée de l’abstention dans les communes nouvelles. Ainsi, entre 2014 et 2020, la participation aux élections municipales a diminué de manière bien plus importante dans les communes nouvelles que dans les communes inchangées : le pourcentage de votants par rapport au nombre d’inscrits a baissé de 21 % dans les communes nouvelles entre 2014 et 2020, contre une baisse de 15 % pour les communes inchangées. Certes, la diminution généralisée de la participation s’explique par le contexte pandémique. Mais celui-ci n’a, a priori, pas touché différemment les communes nouvelles, quelle que soit leur taille.

Chaque élément présenté ici ne peut, à lui seul, délégitimer les communes nouvelles. Il est évident que certains projets de fusion font sens et remplissent les objectifs qu’ils se sont fixés, comme la mutualisation de structures ou de personnels, la montée en compétence des équipes communales ou l’aboutissement de décennies de collaborations concernant des services aux populations ou des équipements. Mesurer ces effets bénéfiques est d’ailleurs complexe, et mériterait des analyses encore à conduire.

Il serait toutefois souhaitable que les réflexions sur les communes nouvelles prennent en compte toutes les données en jeu, sans idées préconçues, et que les décisions de regroupement soient prises sur des bases saines. Les fusions sont parfois comparées à des mariages, or ce n’est pas parce qu’on peut observer des couples heureux que tout le monde doit se marier, a fortiori avec n’importe qui !

Il faut en tout cas appeler à ce que les prochaines semaines de campagne à l’échelon municipal, outre les questions programmatiques et partisanes qui ne manqueront pas, soient aussi l’occasion de débattre de ces enjeux liés aux communes nouvelles pour que, dans les communes qui ont fusionné comme dans celles qui pourraient l’envisager, le débat démocratique soit nourri et éclairé.

The Conversation

Gabriel Bideau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Les fusions de communes tiennent-elles leurs promesses  ? – https://theconversation.com/les-fusions-de-communes-tiennent-elles-leurs-promesses-273486

Quand la Coupe d’Afrique des nations réactive les tensions au sein de l’Afrique

Source: The Conversation – in French – By Jean-Loup Amselle, Anthropologue et ethnologue, directeur d’études émérite à l’EHESS, chercheur à l’Institut des mondes africains (IRD-CNRS-Panthéon Sorbonne-Aix-Marseille-EHESS-EPHE), Institut de recherche pour le développement (IRD)

La finale Maroc‑Sénégal a tourné au chaos. La suite des événements a vu une large mobilisation des imaginaires opposant Afrique du Nord « blanche » et Afrique subsaharienne « noire ».


Dans un article rédigé à l’époque des faits, j’avais tenté de montrer que le refus du footballeur du PSG et de l’équipe du Sénégal Idrissa Gana Gueye de porter le maillot LGBTQIA+ lors de la Journée mondiale de lutte contre l’homophobie en mai 2022 avait cristallisé les tensions entre les milieux footballistiques français et sénégalais, et au-delà, entre une partie des opinions publiques de ces deux pays, au point de faire apparaître cette affaire comme l’expression d’un antagonisme foncier entre la culture sénégalaise et la culture française.

Le scénario de la crise survenue lors de la finale de la Coupe d’Afrique des nations (CAN) qui s’est déroulée au stade Moulay-Abdellah de Rabat au Maroc le 18 janvier 2026 est en principe différent puisqu’elle met aux prises deux pays africains – même si, on le verra, le fantôme de l’ancienne puissance coloniale conserve un certain rôle en arrière-plan.

Rappelons tout d’abord le cadre général de cette finale dont la victoire était en quelque sorte programmée pour revenir au pays hôte, le Maroc. En effet, Rabat a dépensé des sommes considérables pour accueillir cet événement, ce qui a provoqué une éruption populaire de jeunes qui auraient préféré voir les crédits affectés à l’organisation de la compétition aller à des équipements scolaires ou à des hôpitaux.

Le tournoi a vu s’affronter de multiples équipes africaines, mais ce qui retient l’attention sur le plan symbolique, perspective choisie ici, ce sont les matchs qui ont opposé des équipes du nord et du sud de l’Afrique, autrement dit du Maghreb et de l’Afrique subsaharienne.

« La Société archaïque », un ouvrage de référence et une grille de lecture pour la finale

Des tensions avaient déjà été observées dès avant la finale : les Algériens étaient sortis furieux contre l’arbitre sénégalais après leur quart de finale perdu contre le Nigeria, l’accusant de partialité et ajoutant que l’un de ses assistants aurait tenu des propos racistes à leur égard ; durant la demi-finale entre le Maroc et le Nigeria, le gardien nigérian avait vu des ramasseurs de balles locaux voler sa serviette – un épisode qui annonçait l’épisode de la serviette du gardien sénégalais durant la finale que des remplaçants marocains allaient chercher à subtiliser.

C’est bien cette finale entre le Maroc et le Sénégal qui a cristallisé le plus de sanctions, et l’on voudrait ici replacer ce match dans un cadre anthropologique emprunté à Lewis H. Morgan, l’un des pères fondateurs de cette discipline.

Dans la Société archaïque (1877), Morgan retrace l’évolution de l’histoire de l’humanité en définissant trois stades successifs : d’abord la sauvagerie, puis la barbarie (entendue comme une phase intermédiaire, où commencent à naître des structures relativement complexes) et enfin la civilisation. Ce paradigme temporel peut être transformé en un syntagme géographique s’appliquant au climat dans lequel s’est déroulée la finale de cette compétition.

Mais commençons par un bref rappel des faits. Dans le temps additionnel de la rencontre, à la 92ᵉ minute, alors que le score est toujours de 0-0, un but est refusé – à tort ou à raison – au Sénégal par l’arbitre Jean-Jacques Ndala (République démocratique du Congo), suscitant l’incompréhension des Lions de la Teranga. Quelques instants plus tard, deuxième moment de tension, bien plus intense, celui-là : à la toute dernière minute du temps additionnel, toujours à 0-0, l’arbitre accorde un pénalty au Maroc. Cette décision – tout aussi discutable que le but sénégalais annulé quelques instants plus tôt – provoque, cette fois, une véritable fureur de l’équipe sénégalaise. Suivant son entraîneur Pape Thiaw, elle quitte alors le terrain et ouvre véritablement la crise, puisque ce départ contrevient à la réglementation du football et fait donc peser le risque de lourdes sanctions à l’encontre de la sélection.

Un seul joueur sénégalais, le capitaine Sadio Mané, reste sur le terrain et, après avoir pris conseil auprès de l’entraîneur français Claude Le Roy, 78 ans, qui a exercé en Afrique pendant des décennies, obtient le retour de ses coéquipiers sur la pelouse. Le match reprend après un gros quart d’heure d’interruption.

L’attaquant marocain Brahim Diaz peut enfin tirer le pénalty qui a entraîné l’incident… et le manque. Le match se poursuit donc avec des prolongations, et le Sénégal finit par remporter la rencontre et donc la compétition.

Résumé de la finale (Bein Sports). La séquence polémique décrite ci-dessus commence à 11’47.

Dans la présentation des choses souvent faite au Maroc à la suite de cette soirée traumatisante pour le pays hôte, l’équipe du Sénégal, par son comportement sans précédent consistant à quitter massivement le terrain, ainsi que par l’explosion de colère de ses supporters, a représenté le premier des stades défini par Morgan, celui de la « sauvagerie » ; le capitaine sénégalais Sadio Mané, par sa volonté constructive de ramener « ses » joueurs vers le terrain, a représenté le second, celui de la « barbarie » JLA, étape intermédiaire vers la « civilisation » qui, elle, incombe au Maroc, aussi bien en sa qualité d’équipe nationale stoïque durant les turbulences de la fin de match et, au-delà, de pays organisateur d’une CAN vouée à devenir un modèle pour l’ensemble du continent.

Derrière cette vision est réactivée la division coloniale entre une Afrique du Nord « blanche », perception relevant plutôt de l’orientalisme, et une Afrique subsaharienne « noire », davantage interprétable dans le cadre de l’ethnographie.

Mais à cette triangulation, il faut ajouter un quatrième élément : celui de l’ombre de l’ancienne puissance coloniale représentée par celui qui a entraîné de nombreuses équipes de football africaines, Claude Le Roy, véritable parrain de la résolution partielle de la crise intervenue sur le terrain.

Accusations réciproques

Le résultat de la finale provoque une sorte de déflagration non seulement entre le Maroc et le Sénégal, mais également au sein de l’Afrique tout entière. « Chaos », « fiasco », entre autres, sont les qualificatifs donnés à ce match par les journalistes tandis que les commentaires vont bon train dans toute l’Afrique et notamment au Maghreb. C’est que le football, dans ce cas comme dans d’autres, est le révélateur de tensions entre pays et entre portions du continent africain.

En dépit des sommes considérables dépensées par le Maroc, les Sénégalais se sont plaints d’avoir été mal hébergés, d’avoir été obligés de s’entraîner sur des terrains ne leur convenant pas, de ne pas avoir bénéficié d’un service de sécurité efficace, etc. Bref, d’avoir été traités avec condescendance.

Plus grave, le défenseur sénégalais Ismaël Jakobs a affirmé que le forfait quelques heures avant la finale de trois de ses coéquipiers avait été dû à un empoisonnement. En outre, les Sénégalais ont accusé l’arbitre de partialité puisqu’il leur a refusé un but et accordé un pénalty aux Marocains ; et ils se sont émus du vol de la serviette de leur gardien de but.

Parallèlement, les Marocains (certains spectateurs maghrébins JLA) se sont moqués de supposées tentatives sénégalaises de peser sur l’issue du match en ayant recours à des pratiques magiques issues de traditions animistes, tandis qu’eux-mêmes n’avaient d’autre repère religieux que le Coran. On retrouve ainsi une opposition tranchée entre magie africaine subsaharienne et religion maghrébine, et donc une nouvelle fois entre « sauvagerie » et « civilisation ».

La victoire des nationalismes

En définitive, à une certaine rancœur envers un hégémonisme attribué au Maroc a correspondu un certain mépris à l’égard du Sénégal, voire un racisme déclaré comme en témoignent, entre autres exemples, les propos d’une enseignante de l’Université internationale de Casablanca qui a qualifié les Sénégalais d’« esclaves ».

À l’issue de cette compétition, l’image de l’unité de l’Afrique a donc une nouvelle fois été profondément fragilisée — de même que, dans une certaine mesure, les ambitions dominatrices du Maroc sur le sud du continent. Mais cela n’a pas concerné seulement l’opposition entre un Nord « blanc » et un Sud « noir » puisqu’à cette occasion a aussi été révélé le fossé entre le Maroc et le reste du Maghreb : une partie des opinions tunisienne et algérienne ont « joué » de façon fantasmatique la défaite de l’équipe marocaine et, à travers cette défaite l’affaiblissement du royaume chérifien, accusé non seulement de refuser l’indépendance au Sahara occidental (projet soutenu par l’Algérie et la Tunisie), mais aussi d’entretenir des liens étroits avec Israël. À travers les fantasmes africains qui se sont déployés autour de la CAN, ce sont donc aussi la tragédie de Gaza et la double articulation du Maghreb tiraillé entre l’Afrique subsaharienne et le Moyen-Orient qui se sont invitées dans la compétition.

En définitive, si à l’occasion de la finale de cette compétition le Maroc a fait preuve d’un hégémonisme contrarié comme en témoigne le fait que le frère du roi Moulay Rachid ait refusé de remettre la coupe au capitaine de l’équipe du Sénégal Sadio Mané, ce dernier pays n’est pas en reste pour affirmer sa supériorité par rapport à ses voisins de l’intérieur du continent – on y observe souvent la manifestation d’un sentiment de supériorité intellectuelle par rapport au Mali, au Burkina Faso, ou encore au Niger, dont les habitants sont considérés comme des « ploucs » plus ou moins animistes ou moins islamisés que les Sénégalais. Les fantasmes de l’Afrique n’opposent pas seulement l’Afrique « blanche » à l’Afrique « noire », mais sont aussi internes à l’Afrique subsaharienne elle-même. Les véritables vainqueurs de cette finale de la CAN 2026 sont en réalité les nationalismes marocain et sénégalais.

The Conversation

Jean-Loup Amselle ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la Coupe d’Afrique des nations réactive les tensions au sein de l’Afrique – https://theconversation.com/quand-la-coupe-dafrique-des-nations-reactive-les-tensions-au-sein-de-lafrique-275877

AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques

Source: The Conversation – France in French (2) – By Élodie Laine, Professeure en biologie computationnelle, Sorbonne Université

Même une mutation génétique très simple – une lettre qui change dans l’immense chaîne composée d’A, T, C et G – peut avoir des conséquences sur la santé. Sangharsh Lohakare/Unsplash, CC BY

Notre ADN est composé d’un enchaînement de quatre petites molécules appelées « acides nucléiques » et dénotées par les lettres A, C, G, et T. Parfois, une mutation génétique a lieu et affecte notre santé. Une simple modification dans la grande séquence de lettres qui constitue notre génome peut suffire à affecter l’expression des gènes ou les versions des protéines produites à partir de ces gènes.

Mais on ne sait pas, à l’heure actuelle, expliquer systématiquement comment telle ou telle mutation génétique peut avoir tel ou tel effet. C’est la question à laquelle AlphaGenome, le nouveau logiciel d’intelligence artificielle présenté dans la revue Nature par Google, tente de répondre.

AlphaGenome analyse un million d’acides nucléiques à la fois, et prédit, pour chacun d’eux, des milliers de quantités, qui sont autant de facettes de la régulation de nos gènes pour façonner nos tissus et nos organes.

Coupler un tel niveau de résolution avec un contexte aussi long (un million de lettres !) et prédire autant d’aspects de la régulation du génome relève du tour de force. Cependant, ce nouvel opus de la série Alpha de DeepMind ne représente pas une avancée aussi spectaculaire qu’AlphaGo ou AlphaFold, par exemple.

AlphaGenome affine une approche existante, déjà implémentée dans Enformer et Borzoi, deux modèles d’apprentissage profond développés chez Google qui ont fait leurs preuves. Il améliore, d’une part, leur efficacité par des optimisations techniques et, d’autre part, leur pertinence, en modélisant plus finement la complexité des processus génétiques.




À lire aussi :
Décrypter notre génome grâce à l’intelligence artificielle


Pourquoi cette avancée est importante

L’enjeu de ce travail est de taille pour la santé humaine. Les bases de données génomiques de populations humaines recensent près de 800 millions de variations ponctuelles – c’est-à-dire des changements portant sur une seule lettre du code génétique – dont l’impact sur notre santé reste largement inexploré. Identifier quelles sont celles qui sont à l’origine de maladies ou de dysfonctionnements, et comprendre leurs mécanismes d’action, est crucial.

Par exemple, dans certaines leucémies, une mutation d’un seul acide nucléique active de manière inappropriée un gène bien spécifique. AlphaGenome confirme le mécanisme déjà connu de cette activation aberrante : la mutation permet à un régulateur génétique de s’accrocher au gène, et modifie les marques épigénétiques alentour.

Ainsi, en unifiant plusieurs dimensions de la régulation génétique, AlphaGenome s’impose comme un modèle de fondation, c’est-à-dire un modèle générique qui peut être transféré ou appliqué facilement à plusieurs problèmes.

Quelles sont les suites de ces travaux ?

Plusieurs limitations tempèrent néanmoins l’enthousiasme.

Par exemple, les prédictions sur différentes facettes d’un même processus biologique ne sont pas toujours cohérentes entre elles, révélant que le modèle traite encore ces modalités de façon relativement cloisonnée.

Le modèle peine aussi à capturer la « spécificité tissulaire », c’est-à-dire le fait qu’un même variant génétique peut être délétère dans un tissu et neutre dans un autre.

De plus, il reste difficile de quantifier l’ampleur de l’effet d’une mutation.

Enfin, AlphaGenome prédit des conséquences moléculaires, pas des symptômes ni des diagnostics – or, entre une variation d’ADN et une maladie, il reste énormément de travail pour comprendre les relations entre ces différents niveaux ; et il n’a pas encore été validé sur des génomes individuels – un passage obligé pour toute application en médecine personnalisée, où l’enjeu serait d’interpréter le profil génétique unique d’un patient pour prédire sa susceptibilité à certaines maladies ou adapter son traitement.

Au-delà de ces enjeux pour la santé humaine, comment transférer cette connaissance à la biodiversité dans son ensemble ? AlphaGenome dépend en effet de mesures expérimentales, accessibles en abondance uniquement pour une poignée d’espèces (l’humain et quelques organismes modèles). Une autre famille de modèles pourrait ici jouer un rôle complémentaire : les « modèles de langage génomique », qui fonctionnent un peu comme ChatGPT mais pour prédire la suite d’une séquence d’ADN plutôt que la suite d’une phrase. Ces modèles, entraînés sur des millions de séquences génomiques, peuvent ainsi capturer les règles et les motifs conservés au cours de l’évolution, ce qui permet de déchiffrer des génomes inconnus.

Rien de tout cela n’existerait sans les grandes bases de données publiques et le travail cumulé de la recherche académique et des consortia ouverts, qui ont produit, standardisé et partagé les données nécessaires à l’entraînement de ces modèles. La suite logique est claire : la science doit rester ouverte, au service de la société. L’équipe d’AlphaGenome a rendu le code et les poids publiquement accessibles, et propose une interface facilitant l’adoption par la communauté scientifique. Reste à voir comment celle-ci s’emparera de cet outil : sera-t-il utilisé comme une « boîte noire » pratique, ou inspirera-t-il un véritable changement de paradigme en génomique computationnelle ?


Cet article a bénéficié de discussions avec Arnaud Liehrmann, post-doctorant au laboratoire de Biologie computationnelle, quantitative et synthétique.


Tout savoir en trois minutes sur des résultats récents de recherches commentés et contextualisés par les chercheuses et les chercheurs qui les ont menées, c’est le principe de nos « Research Briefs ». Un format à retrouver ici.


The Conversation

Elodie Laine est membre junior de l’Institut Universitaire de France. Elle a reçu des financements de l’Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris, ANR-23-IACL-0007) et de l’Union Européenne (ERC, PROMISE, 101087830). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux de l’Union européenne ou du Conseil européen de la recherche. Ni l’Union européenne ni l’autorité octroyant la subvention ne peuvent en être tenus responsables.

Julien Mozziconacci est professeur au Muséum National d’Histoire Naturelle et membre junior de l’Institut Universitaire de France. Il a reçu des financements de l’Agence Nationale de la Recherche (ANR, France 2030, PostGenAI@Paris). Les points de vue et opinions exprimés sont toutefois ceux des auteurs uniquement et ne reflètent pas nécessairement ceux des instituts qui les ont financés.

ref. AlphaGenome, une nouvelle avancée en intelligence artificielle pour explorer les effets des mutations génétiques – https://theconversation.com/alphagenome-une-nouvelle-avancee-en-intelligence-artificielle-pour-explorer-les-effets-des-mutations-genetiques-275833

En France, les personnes âgées consomment trop de benzodiazépines, et en méconnaissent les risques

Source: The Conversation – in French – By Sylvain Pichetti, Économiste de la santé – directeur de recherche, Institut de recherche et documentation en économie de la santé (Irdes)

La France est l’un des pays d’Europe où la consommation de benzodiazépines par les personnes âgées reste la plus élevée. Pour mieux dormir ou calmer l’anxiété, nombre d’entre elles s’en voient prescrire pendant des mois, voire des années, souvent sans que la mesure des risques associés à ces médicaments ne soit prise.

––––––––––-

En France, la prescription de benzodiazépines chez les personnes âgées est particulièrement élevée par rapport à celle observée dans les autres pays de l’OCDE. Ces médicaments voient pourtant leur efficacité diminuer avec le temps et exposent les seniors à de nombreux effets indésirables : risque accru de chutes et de fractures, troubles de la mémoire et des fonctions cognitives, ou encore dépendance.

Face à ces risques, l’Agence nationale de sécurité du médicament et des produits de santé (ANSM) a lancé en avril 2025 une nouvelle campagne d’information visant à promouvoir le bon usage des benzodiazépines et à réduire leur consommation.

Trois études récentes menées par l’Institut de recherche et documentation en économie de la santé (Irdes) permettent de caractériser l’évolution de la consommation en France au cours des dernières années, d’identifier les situations les plus à risque de prescriptions potentiellement inappropriées et de mieux comprendre les leviers susceptibles de réduire ces prescriptions chez les seniors.

Voici ce qu’il faut en retenir.

Une consommation en baisse, mais toujours élevée en France

En France, la consommation de benzodiazépines chez les personnes âgées diminue, mais reste nettement plus élevée que dans la plupart des pays européens. Nos travaux révèlent qu’en 2022, 13 % des personnes âgées de 65 ans et plus ont reçu au moins une prescription potentiellement inappropriée de benzodiazépines au cours de l’année, soit une baisse de quatre points par rapport à 2012. Cette diminution s’inscrit dans une tendance observée dans l’ensemble des pays européens sur la même période.

Plusieurs politiques publiques ont contribué à cette évolution, notamment le ciblage des prescriptions potentiellement inappropriées de benzodiazépines dans la rémunération sur objectifs de santé publique (depuis 2012), la baisse du remboursement de certaines molécules et la diffusion de recommandations de bonnes pratiques par la Haute Autorité de santé (HAS), en particulier pour les troubles de l’anxiété et du sommeil. La HAS précise par ailleurs qu’en cas de prescription, la planification d’emblée de la stratégie de déprescription s’avère nécessaire afin que le traitement ne dépasse pas trois mois.

Malgré ces efforts, la France reste un pays à forte consommation : les prescriptions potentiellement inappropriées y sont environ deux fois plus fréquentes qu’en Suède et six fois plus qu’au Danemark.

Dans notre pays, la consommation de benzodiazépines varie fortement selon les territoires. Les taux de prescription les plus élevés, autour de 23 %, sont observés dans certaines régions comme la Bretagne, les Hauts-de-France, le Limousin, la Champagne-Ardenne, la Gironde ou le littoral sud, alors que la moyenne des zones de faible prescription s’établit autour de 14 %.

L’analyse des données indique que les bassins de vie dans lesquels les personnes âgées appartiennent plus souvent à la catégorie sociale des employés ou des ouvriers ont des taux standardisés de prescriptions potentiellement inappropriées de benzodiazépines plus importants. En outre, l’offre de soins, accessible dans les bassins de vie, joue aussi un rôle. Une meilleure accessibilité aux médecins généralistes, principaux prescripteurs, est associée à plus de prescriptions potentiellement inappropriées.

Deux types de prescriptions inappropriées chez les personnes âgées

Chez les personnes âgées, deux configurations de prescriptions sont considérées comme potentiellement inappropriées.

La première renvoie à la prescription de benzodiazépines à longue durée d’action. Ces médicaments qui mettent plus de temps à être éliminés par l’organisme sont très fortement déconseillés pour les personnes âgées de 65 ans et plus. En effet, avec l’âge, les fonctions hépatiques et rénales diminuent, ce qui allonge le temps d’élimination des médicaments. En raison de la sédation, de la faiblesse musculaire, de la confusion, les benzodiazépines augmentent le risque de chutes, qui sont une cause majeure de fractures du col du fémur et d’hospitalisation chez les personnes âgées.

La deuxième configuration porte sur la durée de prescription qui ne doit pas dépasser trois mois chez le sujet âgé, selon les recommandations nationales (Haute Autorité de santé) et internationales (American Society of Addiction Medicine).

Le rôle central du médecin généraliste dans la prescription

En France, les médecins généralistes sont à l’origine de plus de 80 % des prescriptions de benzodiazépines. Ils connaissent les risques chez les patients âgés grâce aux recommandations diffusées par la Haute Autorité de santé. Pourtant, la pratique de prescription varie beaucoup d’un médecin à l’autre.

En tenant compte des différences de sexe, d’âge, de mortalité et de pathologies de leurs patients, certains médecins généralistes affichent seulement 10 % de prescriptions potentiellement inappropriées de benzodiazépines en 2015, tandis qu’elles dépassent 30 % chez d’autres confrères.

Les médecins qui ont les taux de prescription les plus élevés et qui conservent ce niveau dans le temps (entre 2015 et 2022) sont plus âgés et plus souvent des hommes. Au contraire, les médecins femmes réduisent plus souvent leurs prescriptions, quel que soit leur niveau initial de prescription.

Concernant la différence de prescription selon l’âge des médecins, l’argument avancé est que la proximité avec l’âge des études explique un meilleur respect des recommandations de bonne pratique, et donc une meilleure prescription. Les plus jeunes médecins prescrivent donc mieux que les médecins plus âgés. Pour la différence liée aux genres, les femmes médecins semblent accorder une attention particulière au respect des recommandations de bonnes pratiques.

Un point à souligner est que certaines populations vulnérables, comme les personnes atteintes de troubles psychiques ou de maladies neurodégénératives, ne bénéficient pas de la baisse de prescription observée entre 2012 et 2022, contrairement aux personnes âgées atteintes d’autres pathologies.

De plus, pour ces patients, les niveaux de prescriptions potentiellement inappropriées de benzodiazépines sont déjà parmi les plus élevés, compris entre 30 % et 50 %. Or, ils peuvent avoir une capacité réduite à consentir à ces traitements.

La relation médecin-patient-aidant influe sur la décision de prescrire

Avec la dégradation de l’état de santé des personnes âgées et l’apparition de maladies neurodégénératives, telles que la maladie d’Alzheimer, le maintien à domicile repose le plus souvent sur la présence d’aidants familiaux, qui sont amenés à coordonner les soins de leurs proches.

Ils prennent en charge les rendez-vous médicaux, participent aux consultations et aident à la prise des médicaments. Ils jouent aussi un rôle clé en transmettant au médecin des informations précieuses sur l’état de la personne âgée, par exemple sur l’anxiété, les troubles du sommeil et les troubles comportementaux associés à l’évolution de la maladie.




À lire aussi :
Burn-out et fardeau des aidants : de quoi parle-t-on exactement ?


Nos travaux révèlent que la présence d’un aidant familial pour les démarches médicales est associée à une augmentation de la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines à longue durée d’action (+ 21,7 points).

Les prescriptions sont plus fréquentes quand l’aidant partage, et donc observe, le quotidien de la personne âgée, parce qu’il est en couple ou cohabite avec elle. Le médecin, bien qu’informé de la nocivité des benzodiazépines, peut être amené à en prescrire lorsqu’aucune alternative n’apparaît envisageable face à des situations d’urgence décrites par l’aidant familial, qui appellent une décision immédiate.

Ces situations d’urgence peuvent prendre plusieurs formes : agitation nocturne intense qui peut conduire la personne âgée à chercher à sortir du domicile et mettre ainsi sa sécurité en jeu, une insomnie totale sur plusieurs nuits qui épuise à la fois la personne âgée et l’aidant, une agressivité soudaine se traduisant verbalement ou physiquement, mettant en difficulté l’aidant qui ne parvient plus à gérer la situation.

Si la relation médecins-aidants-patients a une influence sur la prescription de benzodiazépines, notre étude révèle que l’entrée des personnes âgées en Ehpad est elle aussi associée à un risque de prescription inappropriée.

Les prescriptions potentiellement inappropriées augmentent à l’entrée en Ehpad

L’entrée en établissement d’hébergement pour personnes âgées dépendantes (Ehpad) constitue une période de transition souvent difficile pour les personnes âgées, en particulier celles atteintes de troubles neurodégénératifs.

En France, près d’un résident sur deux en Ehpad présente une prescription potentiellement inappropriée de benzodiazépines. Cette fréquence élevée s’explique par plusieurs facteurs indépendants de l’établissement, tels que l’état de santé souvent dégradé des résidents, ainsi que par les pratiques de prescription des médecins.

À l’admission, certains résidents conservent leur médecin traitant, tandis que d’autres en changent, notamment pour s’adapter à l’organisation de l’établissement ou en raison de l’éloignement géographique avec leur médecin d’origine. Or, les médecins peuvent avoir avoir différentes façon de prescrire, leurs caractéristiques (âge, sexe, exercice solitaire ou en groupe notamment) peuvent avoir un impact important sur leurs prescriptions.

Toutes choses égales par ailleurs, la probabilité de recevoir des prescriptions potentiellement inappropriées de benzodiazépines augmente de dix points après l’entrée en Ehpad.

Cette hausse est principalement portée par les prescriptions chroniques d’anxiolytiques, en lien avec l’apparition ou le renforcement des troubles anxieux à l’occasion de l’admission en Ehpad qui constitue une période très perturbante pour les personnes âgées.

Soulignons toutefois que l’impact de l’admission varie selon le type d’établissement : l’augmentation des prescriptions inappropriées est en effet plus limitée dans les Ehpad du secteur public hospitalier. Par ailleurs, les prescriptions de benzodiazépines sont moins fréquentes dans les établissements où la proportion d’infirmières au sein du personnel soignant est plus élevée. Lesdites infirmières, notamment l’infirmière cadre, jouent un rôle central de coordination des soins médicaux, notamment avec les médecins traitants de ville responsables du suivi médical des résidents.

Mieux informer, et de développer des alternatives non médicamenteuses

On l’a vu, une forte hétérogénéité de prescription persiste selon l’âge et le genre des praticiens. Ce constat plaide pour un renforcement de l’information sur la nocivité des benzodiazépines à destination de l’ensemble des médecins généralistes, afin de mieux les sensibiliser à cette problématique.

Plus largement, il conviendrait d’informer l’ensemble de la population française aux risques liés à l’usage prolongé des benzodiazépines. Cette information permettrait de sensibiliser aussi les aidants familiaux, qui n’ont souvent pas conscience des conséquences négatives de ces prescriptions pour la personne aidée, et qui considèreraient différemment ces prescriptions s’ils en connaissaient les effets sur le long terme.

Un autre levier d’action est de privilégier en première intention les approches non médicamenteuses. Ces alternatives sont déjà disponibles : l’adaptation du logement de la personne âgée (barres d’appui, tapis antidérapant…) pour faciliter ses déplacements et ainsi réduire l’anxiété liée à la peur de tomber ; la pratique d’une activité physique adaptée permettant la relaxation, le recours au psychologue ou à des thérapies cognitivocomportementales pour réduire l’anxiété.

Cependant, face à la diversité des alternatives thérapeutiques non médicamenteuses existantes, une labellisation des alternatives à l’efficacité scientifiquement démontrée apparaît nécessaire, afin de faciliter leur prescription par les médecins.

Enfin, dans les Ehpad, une évaluation systématique des traitements médicamenteux dans les six mois qui suivent l’entrée dans l’établissement, et une diffusion de la culture gériatrique au-delà des Ehpad publics hospitaliers, constitueraient deux pistes d’amélioration pour freiner les prescriptions potentiellement inappropriées de benzodiazépines.

The Conversation

Sylvain Pichetti, dans le cadre de son activité de chercheur à l’Irdes a reçu des financements de l’Institut pour la Recherche en Santé Publique (Iresp) dans le cadre de réponse à appels à projets.

Anne Penneau et Marc Perronnin ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. En France, les personnes âgées consomment trop de benzodiazépines, et en méconnaissent les risques – https://theconversation.com/en-france-les-personnes-agees-consomment-trop-de-benzodiazepines-et-en-meconnaissent-les-risques-275726

Khaby Lame, le créateur le plus suivi sur TikTok : quand un hafiz devient un actif numérique mondial

Source: The Conversation – in French – By Fanny Georges, enseignant-chercheur, Université Sorbonne Nouvelle, Paris 3

Il s’appelle Khabane Lame, mais le monde entier le connaît sous le nom de Khaby Lame. Natif de Dakar, il est aujourd’hui le créateur de contenus le plus suivi sur TikTok avec plus de 160 millions d’abonnés : un record mondial obtenu sans prononcer un seul mot. Depuis janvier 2026, il est aussi le premier homme qui a autorisé la cession commerciale de son image numérique pour près d’un milliard de dollars. Or, Khaby Lame est également exceptionnel sur un point que les médias occidentaux mentionnent rarement : il est musulman pratiquant et hafiz, c’est-à-dire qu’il a mémorisé l’intégralité du Coran, après avoir été envoyé à l’âge de 14 ans dans une école coranique près de Dakar.

La tension entre le corps sacré du hafiz et la marchandisation des attributs corporels numérisés de l’influenceur fait de son parcours un cas d’une richesse exceptionnelle pour interroger les enjeux de la numérisation des données personnelles de l’humanité.

Mes recherches portent sur l’identité numérique, les mythes sociotechnologiques et les identités numériques post-mortem. J’explique ici comment Khaby Lame, à partir de sa précarité, a construit une identité comique universelle sur TikTok.

De la banlieue de Turin au sommet mondial

L’histoire de Khaby Lame est structurée comme un mythe contemporain au sens plein du terme, non pas parce qu’elle serait invraisemblable, mais parce qu’elle rejoue les structures narratives fondatrices de la modernité numérique : la précarité comme point de départ, la solitude créatrice comme épreuve initiatique, et la reconnaissance mondiale comme horizon. Ce que le penseur français Roland Barthes appelait la « parole mythique », ce récit qui se donne comme naturel alors qu’il est profondément construit est ici pleinement opérant.

En 2020, au début de la pandémie de Covid-19, Khaby Lame se retrouve sans emploi, confiné dans un logement social de la banlieue de Turin, en Italie, après avoir perdu son poste d’ouvrier. De ce dénuement naît une décision simple : filmer. En dix-sept mois seulement, il dépasse les 100 millions d’abonnés, devenant le premier créateur résidant en Europe à atteindre ce cap.

Ce que ce récit met en scène, c’est la promesse que TikTok vend avec constance : la plateforme comme ascenseur social, le téléphone portable comme outil de connexion immédiate entre le talent et la reconnaissance. Ce mythe de l’émergence spontanée mérite d’être examiné plutôt que simplement célébré. Il occulte la part de travail, de calcul, et surtout de contingence algorithmique qui préside à toute trajectoire virale.

La grammaire du corps universel

Ce qui distingue fondamentalement Khaby Lame de la quasi-totalité des créateurs qui l’ont précédé, c’est le régime sémiotique qu’il a inventé, ou plutôt réactivé, car il s’inscrit dans une généalogie comique très ancienne. Certains le comparent à Charlie Chaplin, d’autres à Buster Keaton, tous deux acteurs et réalisateurs du cinéma muet burlesque hollywoodien.

Charlie Chaplin dans “The Kid – Fight Scene”.

En effet, Khaby Lame renoue avec les codes du cinéma comique muet hollywoodien des années 1930 initié par Charlie Chaplin : du mime, des regards appuyés, pas de textes, et de saynètes (courtes scènes théâtrales) burlesques porteuses de messages. Mais la filiation chaplinesque s’arrête là, car les deux hommes habitent leur corps de façons radicalement différentes. Les films de Chaplin intègrent des moments émouvants marqués par des thèmes sociaux et politiques.

Charlot est le vagabond précaire qui résiste au monde industriel, un corps politiquement engagé. Son corps de scène prend parti pour les opprimés, pour les persécutés, pour les précaires du monde.

La mécanique comique de Khaby Lame est, elle, davantage keatonienne. Il utilise uniquement son visage souvent exaspéré pour mettre en lumière l’absurdité des vidéos qui prétendent simplifier les tâches quotidiennes mais ne font que les compliquer. Une impassibilité absolue face à l’absurde, que Buster Keaton avait porté à son point de perfection avec son célèbre « Great Stone Face ».

Buster Keaton ‘The Art of the Gag’.

Mais là où la structure comique est keatonienne, le rapport au corps ne l’est pas du tout : toute sa vie, Keaton est resté complètement indifférent à la religion ou à la métaphysique sous quelque forme que ce soit. Dans un sens pratique, la seule religion de Keaton semble avoir été le théâtre et le cinéma. Keaton incarnait un corps sans ciel au-dessus de lui, un corps radicalement laïque, disponible à l’absurde sans recours à aucune transcendance.

Khaby Lame est l’exact inverse sur ce point. Son corps n’est pas sans ciel : c’est le corps d’un hafiz. Et c’est cette irréductible différence qui rend la dissociation de l’identité numérique en 2026 si troublante. Cet humour sans paroles lui permet de construire un public mondial car il n’y a aucune barrière linguistique, de la même façon que les stars du cinéma muet telles que Charlie Chaplin sont devenues des icônes mondiales il y a un siècle.

TikTok a d’ailleurs optimisé ses mécanismes de recommandation pour favoriser ce type de contenu lisible par tous. Là où Chaplin avait besoin de la salle obscure, Khaby Lame n’a besoin que d’un téléphone et d’un algorithme. La grammaire est la même ; le dispositif de diffusion a muté radicalement.

Khaby Lame.

La dissociation de l’identité numérique

En janvier 2026, ce corps expressif si soigneusement construit devient officiellement un actif financier. Khaby Lame cède sa société Step Distinctive Limited pour 975 millions de dollars à Rich Sparkle, une société cotée en bourse basée à Hong Kong. L’accord inclut la cession des droits d’utilisation de son image, de sa voix et de ses modèles comportementaux, destinés au développement d’un jumeau numérique alimenté par l’intelligence artificielle.

Ce jumeau numérique sera utilisé pour des contenus multilingues, notamment publicitaires et promotionnels, permettant à des entreprises de lancer des campagnes dans plusieurs pays sans que Khaby soit physiquement présent. Selon Rich Sparkle, l’exploitation de ce jumeau numérique pourrait générer plus de 4 milliards de dollars de ventes annuelles, via son double qui créera du contenu commercial multilingue (livestream e-commerce, un format déjà dominant en Asie), pouvant être diffusé simultanément dans le monde entier.

Cette transaction signe un passage de seuil : celui où l’identité numérique cesse d’être une représentation de soi pour devenir un actif dissociable de la personne qui lui a donné naissance. Pour la première fois, un créateur serait considéré non pas comme un ambassadeur de marque, mais comme une marque à part entière, note le journal italien Corriere della Sera. Ce que ce journal formule en termes commerciaux peut se reformuler en termes théoriques : les attributs numériques de Khaby Lame sont désormais légalement séparables de Khaby Lame lui-même.

Le jumeau numérique est, en ce sens, le corps keatonien rêvé par le capitalisme de plateforme : impassible, reproductible, sans intériorité, disponible sur tous les fuseaux horaires. Il prend la structure comique de Keaton et en fait un actif industriel.

Un corps infiniment reproductible et polysémique

Le geste signature de Khaby Lame (les deux paumes ouvertes tournées vers le ciel) semble universellement lisible comme expression de stupéfaction bienveillante. Mais il est profondément polysémique : dans la tradition islamique comme dans de nombreuses cultures africaines, ce même geste est celui du dua, la supplique adressée à Dieu les mains tendues vers le ciel. Ce que des millions de spectateurs lisent comme une signature comique porte, superposée à elle, la mémoire gestuelle d’une tradition spirituelle. Le corps du hafiz ne parle pas d’une seule voix.

Mais le double numérique de Khaby Lame n’est pas une simple image : c’est une entité qui agit en son nom, qui parle avec sa voix, qui produit avec ses gestes caractéristiques. Ce n’est plus de la représentation, c’est de la délégation de sa manière d’être et d’agir.

Un miroir tendu au continent africain

Les mêmes mains ouvertes, le même regard expressif, la même voix qui portèrent jadis les sourates du Coran dans une école de Dakar sont aujourd’hui les attributs d’une transaction commerciale évaluée à près d’un milliard de dollars. Khaby Lame n’a jamais instrumentalisé sa foi pour son audience, et c’est précisément cette discrétion qui rend la tension analytiquement précieuse. Néanmoins, on peut pressentir une tension éthique dans cette cession de son identité agissante aux marchés financiers.

D’un côté, pour la jeunesse africaine, et sénégalaise en particulier, Khaby Lame incarne la possibilité que les espaces numériques constituent des territoires où les hiérarchies héritées de l’histoire coloniale peuvent, au moins symboliquement, être renversées. D’un autre côté, dans cette transaction éminemment capitaliste, un fils de la diaspora sénégalaise autorise la reproduction à l’infini de ses attributs numériques, livrant son corps à l’exploitation médiatique.

Que signifie la cession de ses attributs numériques dans un monde où l’image des corps africains a si longuement été appropriée sans consentement ni compensation ? S’agit-il d’une victoire ou d’une nouvelle forme d’exploitation ? Les bénéfices financiers peuvent-ils compenser la cession de son identité ?

Le continent africain, qui produit de plus en plus de créateurs numériques à audience mondiale, aura collectivement à construire des réponses juridiques, éthiques et culturelles à ces questions. Qui contrôle le double numérique d’un créateur ? Dans quel cadre normatif, occidental, asiatique, islamique ou africain, son exploitation est-elle jugée ?

Khaby Lame n’est pas seulement un phénomène de plateforme. Il est un révélateur, et peut-être, involontairement, un précédent.

The Conversation

Fanny Georges does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Khaby Lame, le créateur le plus suivi sur TikTok : quand un hafiz devient un actif numérique mondial – https://theconversation.com/khaby-lame-le-createur-le-plus-suivi-sur-tiktok-quand-un-hafiz-devient-un-actif-numerique-mondial-275691

JO de Milano-Cortina : comment gérer les foules de manière éco-responsable

Source: The Conversation – in French – By Alizée Pillod, Doctorante en science politique, Université de Montréal

Au-delà de la performance sportive, les Jeux olympiques d’hiver de Milano-Cortina se déroulent dans un contexte marqué par l’urgence climatique et des attentes croissantes envers la responsabilité environnementale des méga-évènements sportifs. Conscient de l’empreinte carbone liée à la présence des spectateurs, le Comité organisateur a mis en place des mesures pour les inciter à adopter des comportements plus écoresponsables durant ces JO, qui se terminent le 22 février avant de reprendre en mars pour les Jeux paralympiques.


Quelles sont ces mesures et que valent-elles réellement ?

Doctorante en science politique à l’Université de Montréal, mes travaux portent à la fois sur la communication climatique et l’élaboration de politiques environnementales, y compris dans le secteur du sport.

Après avoir assisté aux Jeux olympiques de Paris 2024, souvent présentés comme plus verts, j’ai eu l’occasion d’être présente à ceux de Milano-Cortina, lors du weekend d’ouverture, sur les sites de Bormio et Livigno. Le texte qui suit s’appuie sur mon expertise et les observations que j’ai pu faire sur place, en tant que spectatrice.




À lire aussi :
À la veille de l’ouverture des JO d’hiver, quelles attentes environnementales ?


Les spectateurs : champions des émissions

Les Jeux olympiques d’hiver, même si plus petits en taille que ceux d’été, provoquent une forte affluence en montagne. En Italie, les organisateurs s’attendent à accueillir jusqu’à 2,5 millions de spectateurs sur l’ensemble des sites. Il s’agit des Jeux les plus dispersés de l’histoire, s’étandant sur 4 sites et plus de 22 000 km².

Les déplacements des spectateurs pour assister aux Jeux constituent généralement la principale source d’émissions de gaz à effet de serre associée à l’événement. À titre d’exemple, lors des Jeux de Paris 2024, ils représentaient à eux seuls près de la moitié de l’empreinte carbone totale, soit 49 %.

Par ailleurs, l’affluence attendue soulève d’autres défis, notamment en matière de gestion des déchets. Les services de restauration offerts aux spectateurs sur les sites de Milano-Cortina, de même que le traitement des déchets, devraient ainsi représenter plus de 15 000 tonnes de CO₂ équivalent.

De ce fait, plusieurs initiatives sont mises en place pour limiter l’impact des spectateurs.

Mieux se déplacer pour moins polluer

Les organisateurs disposent de peu de leviers pour influencer les voyages aériens des spectateurs se rendant en Italie, mais ils peuvent agir sur les modes de transport utilisés une fois sur le territoire nord-italien.

Ils ont notamment restreint la circulation routière à proximité des sites olympiques, pour des raisons à la fois sécuritaires et environnementales. Les résidents et spectateurs souhaitant s’y rendre en voiture doivent ainsi se munir d’un laissez-passer, à demander plusieurs semaines à l’avance et à apposer sur le pare-brise, contrôlé aux principaux points d’accès. Sans interdire explicitement la voiture, ce dispositif en réduit fortement l’attractivité.

Pour encourager des alternatives, des stationnements relais gratuits ont été aménagés en périphérie, avec des navettes payantes vers les sites. En dehors de Milan, la plupart des sites ne sont pas directement accessibles par métro ou train, de sorte que des navettes gratuites ont été déployées depuis certaines gares.

Enfin, pour les spectateurs logeant plus en altitude dans les vallées, comme ce fut mon cas, les transports en commun locaux constituent une autre option. Ces bus publics, bien que payants et ponctués de nombreux arrêts, permettent ici aussi de rejoindre les sites sans recourir à un véhicule individuel, au prix d’un temps de trajet plus long.

L’or, l’argent… et le plastique

Vous souvenez-vous des Phryges, les mascottes de Paris 2024 devenues virales sur les réseaux sociaux ? À Milano-Cortina, vous avez probablement entendu parler de leurs héritiers, Tina et Milo, dont les noms font écho aux villes de CorTINA et MILanO.

Mais connaissez-vous les Flo ? Contrairement aux mascottes officielles chargées d’animer les foules, ces six petites fleurs perce-neige remplissent une mission bien particulière : promouvoir le recyclage.

Leur nom fait écho à la campagne anti-gaspillage « Follow the Flo », construite sur un jeu de mots avec l’expression anglophone « follow the flow », qui signifie « suivre le mouvement ».

Panneau expliquant le tri sélectif sur le site olympique de Livigno.
(Alizée Pillod)

Elles figurent sur les panneaux expliquant le tri sélectif installés à proximité des points de collecte sur les sites olympiques, contribuant à sensibiliser les spectateurs à leurs actions de manière ludique. Plus encore, des peluches à leur effigie sont proposées à la vente, prolongeant cette initiative au-delà des espaces de tri eux-mêmes.

Une performance en demi-teinte

Aucune donnée définitive n’est encore disponible sur le recyclage ou la fréquentation des navettes et transports en commun, mais il est déjà possible de partager quelques constats.

D’abord, les modes de transport mis à disposition semblent victimes de leur succès. Du côté des bus locaux, les organisateurs ont même sous-estimé l’engouement des spectateurs pour ce service.

À Livigno, site olympique situé en haute altitude, un seul bus circule par heure. À la sortie des compétitions, ce qui devait arriver arriva : files d’attente interminables, spectateurs contraints de patienter dans le froid et sentiment général d’improvisation.

Il faut toutefois reconnaître que l’accès au site constitue en soi un défi logistique. Une fois à Bormio, autre site olympique déjà situé en altitude, l’accès à Livigno nécessite d’emprunter une route sinueuse pendant encore près d’une heure et de franchir un col à plus de 2 000 mètres. Cela limite de facto le flux de véhicules et la fréquence des navettes.

Les autres sites n’échappent pas non plus à ce casse-tête logistique. Ici, la géographie impose ses contraintes, et la patience devient une condition implicite de l’expérience olympique.

La stratégie des stationnements relais soulève également des questionnements. Leur nombre reste limité, et certains sont eux-mêmes situés en altitude, comme celui d’Aquilone. Un tel choix interroge : en positionnant ces stationnements plus bas dans la vallée, les organisateurs auraient-ils davantage dissuadé l’usage de la voiture et favorisé celui des transports collectifs ?

Risque d’éco-blanchiment

En outre, si les Flo encouragent le tri sélectif, celui-ci ne peut constituer la seule solution pour diminuer le nombre de déchets.

À ce sujet, il est surprenant qu’aucune vaisselle réutilisable ne soit proposée aux spectateurs et que les services de restauration privilégient des emballages en carton recyclé ou en plastique pour la vente de leurs produits. L’absence de fontaines permettant de remplir des gourdes entraîne également un recours systématique aux bouteilles d’eau en plastique.

De plus, si les Flo partent d’une bonne intention, la vente de peluches contribue malgré elles à la consommation de masse, laquelle va à l’encontre des principes de l’économie durable.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’argent récolté par ces ventes de peluches ne semble pas être réinvesti dans des actions vertes. Cela constitue une occasion manquée de prolonger l’impact des gestes individuels et expose l’initiative à un risque significatif d’éco-blanchiment.

Ce risque est d’autant plus réel du fait que l’initiative est en partie parrainée par Coca-Cola, l’une des entreprises les plus polluantes en matière de plastique dans le monde. Elle avait déjà fait l’objet d’une plainte lors de Paris 2024.

Des efforts à bonifier

Si ces initiatives en 2026 représentent un premier pas encourageant comparé aux éditions précédentes des Jeux d’hiver, elles restent encore insuffisantes en termes de nombre et d’ambition.

Il faut dire que le point de comparaison n’était guère exigeant : les Jeux olympiques d’hiver de Pékin 2022, à l’instar de plusieurs éditions récentes, ont largement été décriés comme une aberration écologique.

Finalement, cela nous invite aussi à réfléchir à la taille de ces méga-évènements sportifs, lesquels ont considérablement grandi au fil du temps. Si le nombre de spectateurs n’est pas davantage limité, l’empreinte carbone restera nécessairement élevée.

La Conversation Canada

Alizée Pillod est affiliée au Centre d’Études et de Recherches Internationales de l’UdeM (CERIUM), au Centre de recherche sur les Politiques et le Développement Social (CPDS) et au Centre pour l’Étude de la Citoyenneté Démocratique (CECD). Ses recherches sont subventionnées par les Fonds de Recherche du Québec (FRQ). Alizée a aussi obtenu la Bourse départementale de recrutement en politiques publiques (2021), la Bourse d’excellence en études environnementales Rosdev (2023), ainsi que la Bourse d’excellence en politiques publiques de la Maison des Affaires Publiques et Internationales (2025). Elle a collaboré par le passé avec le consortium Ouranos, le ministère de l’Environnement du Québec et l’INSPQ. Elle est actuellement chercheuse invitée au Center for Interdisciplinary Research on Sport de l’Université de Lausanne.

ref. JO de Milano-Cortina : comment gérer les foules de manière éco-responsable – https://theconversation.com/jo-de-milano-cortina-comment-gerer-les-foules-de-maniere-eco-responsable-275759

Peut-on décentraliser sans repenser la carte communale ?

Source: The Conversation – in French – By Daniel Behar, Géographe Professeur des Universités, Université Paris-Est Créteil Val de Marne (UPEC)

Pour éviter un morcellement institutionnel trop important, dans le Maine-et-Loire, 64 communes ont choisi de fusionner en six communes nouvelles, constituant une communauté d’agglomération de 120 000 habitants : les Mauges. Saint-Florent-le-Vieil, ici en photo, est l’une d’entre elles. Dominique Drouet

La France compte un peu moins de 35 000 communes, auxquelles la décentralisation a transféré de nombreuses compétences. Cet émiettement communal est un impensé des réformes territoriales, à rebours des trajectoires européennes. En évitant de trancher la question de la carte communale, la décentralisation n’a-t-elle pas atteint ses propres limites ?


La décentralisation fait débat autour de deux questions. La première porte sur la clarification des rôles des différents échelons de collectivités. La seconde porte sur un approfondissement de la décentralisation – soit plus de transferts de compétences de l’État en direction des élus locaux. Les projets annoncés par le gouvernement Lecornu s’inscrivent dans cette perspective en promettant des transferts significatifs en matière de logement et pour quelques secteurs de l’action sociale. Mais peut-on encore décentraliser sans questionner la capacité des collectivités à gérer de nouvelles responsabilités ?

La France, hyperdécentralisée ?

Cet affichage ignore une réalité fondamentale : la France est sans doute l’un des pays au monde les plus décentralisés. On entend par là qu’elle est un des seuls pays à avoir fait le choix de décentraliser principalement vers le niveau le plus bas et le plus nombreux (la commune – on en dénombrait 34 875 au 1er janvier 2025) et non vers les échelons intermédiaires (régions ou départements).

Rappelons qu’aujourd’hui la commune est le seul niveau territorial à disposer d’une clause générale de compétence qui en fait un véritable « État en modèle réduit ». Le maire y représente l’État, incarne le pouvoir exécutif, préside l’assemblée « législative » locale (le conseil municipal) et dispose d’une capacité d’action généraliste.

Comment alors prétendre à l’efficacité, lorsqu’on confie les rênes de l’action publique à 35 000 micro-États ? Plus des deux tiers des communes françaises ont moins de 1 000 habitants, et disposent d’un budget annuel inférieur à un million d’euros. Ces milliers de communes sont incapables de produire de l’action publique à hauteur des enjeux. Ce phénomène redouble par l’obligation des échelons intermédiaires à prendre acte de cet émiettement en procédant au saupoudrage de leurs propres moyens.

Dans la plupart des autres pays européens, la décentralisation a été accompagnée par une refonte de la carte des communes afin d’en réduire le nombre et d’en augmenter la taille moyenne. La France n’a pas fait ce choix, mis en œuvre ailleurs dans les années 1960 et 1970 : on a décentralisé à périmètre constant (les communes, les départements et les régions).

Cette sanctuarisation de l’émiettement communal ne peut se comprendre qu’en regard de l’histoire longue de la France et du poids de l’État. Pour que ce dernier soit accepté par la population, il fallait préserver un équivalent local, les 36 000 communes issues des paroisses médiévales.

Ainsi s’est installée, depuis la IIIe République, une forme d’équilibre entre un pouvoir national fort et un pouvoir local du même type. Toutefois, pour garantir la pérennité du modèle jacobin français, il fallait que ces communes soient fortes localement, mais « dépendantes » de l’État, donc nombreuses et morcelées. Cela constituait en outre un message à la France rurale tout en limitant le pouvoir des villes.

On comprend dès lors que la décentralisation à la française constitue un gouffre financier, décrié pour sa faible efficacité. Mais le coût de la décentralisation tient-il aux doublons entre échelons, comme on l’entend le plus souvent, ou à cet émiettement ?

L’intercommunalité : une réponse à l’émiettement communal ?

On nous rétorquera que dès les années soixante, le législateur français a tenté d’adopter une voie spécifique pour rendre gérable le niveau local sans pour autant toucher à la carte des communes.

Il s’agit de la création des intercommunalités (communautés urbaines en 1966 puis communautés de communes et d’agglomération en 1999). Ce modèle original a pour le coup inspiré certains de nos voisins européens (Autriche, Finlande ou Italie par exemple).

L’intercommunalité repose sur deux principes : d’une part, l’élection indirecte des conseillers communautaires au second degré, au travers de leur fléchage au sein de chaque conseil municipal. D’autre part, la dissociation tendancielle entre l’instance politique qui demeure la commune et la mise en œuvre des politiques publiques, qui repose sur l’intercommunalité, et monte progressivement en puissance au travers du transfert de compétences. Cet agencement, certes un peu complexe, ajoutant une couche au millefeuille, a offert pendant une vingtaine d’années une perspective crédible de modernisation de l’organisation territoriale française, contournant prudemment la refonte de la carte communale. Ce n’est plus le cas aujourd’hui.

En 2015, la loi Notre a eu pour ambition de parachever ce processus. Est d’abord adopté le principe d’une couverture exhaustive du territoire national par des établissements de coopération intercommunale, rendant cette dynamique, jusqu’alors volontaire, obligatoire. Cette loi incite ensuite fortement au regroupement de ces intercommunalités afin de tendre vers un seuil de viabilité estimé à 10 000 habitants. On a ainsi réduit le nombre d’intercommunalités de moitié entre 2009 et 2025 (de 2 601 à 1 254), chacune de ces intercommunalités regroupant en moyenne 28 communes, ce nombre pouvant atteindre 158 pour la plus grande intercommunalité française, celle du Pays basque.

Une modernisation à l’arrêt ?

Ce parachèvement a d’une certaine manière cassé la dynamique intercommunale et conduit à remettre en question cette modernisation.

Les intercommunalités, systématisées et agrandies, font maintenant l’objet d’un procès en éloignement et perte de responsabilité de la part des maires. Bien qu’ils constituent eux-mêmes l’exécutif de ces intercommunalités, ils en décrient la gouvernance et le mode de prise de décision collective : chaque commune, quelle que soit sa taille, disposant a minima d’un siège, le processus décisionnel apparaît à la fois lointain et faiblement stratégique. Lorsqu’il faut décider à plusieurs dizaines de maires, la logique de saupoudrage tend à prévaloir. Le transfert de la compétence « gestion des milieux aquatiques et prévention des inondations » (Gemapi) cristallise ce procès depuis dix ans. Là où les communes organisaient la gestion de l’eau et de l’assainissement selon des coopérations « à la carte », la loi les oblige à tout gérer au sein de ces grandes intercommunalités.

« La décentralisation critiquée par la Cour des comptes en 180 secondes »

Plus largement, la crise des gilets jaunes (2018) est apparue révélatrice d’une demande de proximité de la part de la population qui va à l’encontre de la montée en puissance des intercommunalités. Celle-ci marque donc aujourd’hui un coup d’arrêt. Cela s’exprime à la fois au niveau national, où la position « communaliste » progresse parmi les groupes politiques, entre communistes, insoumis et extrême droite. Le président de la République lui-même prône le retour au binôme historique maire/préfet de la IIIe République. Seuls les socialistes, le centre et la droite modérée défendent encore du bout des lèvres la perspective intercommunale. De la même manière, au niveau local, les intercommunalités se heurtent à ce repli communaliste et voient leur montée en puissance contrée par la résistance des élus municipaux.

C’est donc la voie retenue en France, depuis un demi-siècle, pour moderniser le pouvoir local qui paraît aujourd’hui compromise. Si un retour en arrière n’est pas envisageable, la perspective implicite des modernisateurs, c’est-à-dire l’absorption progressive des communes dans les intercommunalités n’est plus à l’ordre du jour. On en veut pour preuve la disparition de l’agenda politique de l’hypothèse d’une élection intercommunale au suffrage universel direct, pourtant indiquée dans la loi en 2014.

Le repli communaliste : à quelles conditions ?

Ne pourrait-on pas alors imaginer une voie intermédiaire entre « l’intercommunalisation » et la refonte de la carte communale, en visant la réduction de l’écart démographique et politique entre ces deux échelons ? On fait ici référence à l’expérience d’un territoire de l’ouest de la France, les Mauges, dans le Maine-et-Loire où 64 communes (dont une vingtaine de moins de 1 000 habitants) ont – de façon volontaire – fusionné en six communes nouvelles, toutes de taille supérieure à 10 000 habitants, constituant elles-mêmes une communauté d’agglomération de 120 000 habitants. Cette configuration présente trois intérêts : elle rapproche les deux niveaux ; elle accroît la gouvernabilité de l’intercommunalité (décider à six maires) ; elle garantit, grâce à leur taille, la capacité à agir des communes nouvelles, tout en maintenant une certaine proximité.

En incitant vigoureusement au regroupement des petites communes (par exemple, inférieures à moins de 1 000 habitants), il serait à la fois possible de redonner du sens à ce niveau de proximité plébiscité par les Français, tout en relançant l’échelon intercommunal, seul à même d’agir efficacement sur les questions de mobilité, d’environnement ou de développement économique.

Clarification de la spécialisation des compétences entre échelons et décentralisation privilégiant une myriade de communes : les deux principes retenus en France depuis un demi-siècle ont-ils encore du sens ? N’est-il pas temps d’en tirer les leçons, comparativement aux autres choix opérés en Europe ? Pourra-t-on longtemps encore faire l’économie d’un choix clair, d’une forme de hiérarchisation autour des régions et, simultanément, d’une refonte de la carte communale ?

The Conversation

Daniel Behar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Peut-on décentraliser sans repenser la carte communale ? – https://theconversation.com/peut-on-decentraliser-sans-repenser-la-carte-communale-271545

Strategy, l’entreprise reine du bitcoin, s’effondre en bourse

Source: The Conversation – in French – By Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School

Le 6 février 2026, la société Strategy acquiert 713 500 bitcoins à un prix d’acquisition moyen de 76 000 dollars. Mamun_Sheikh/Shutterstock

Avec le « Jeudi noir » du bitcoin, et un plongeon de 126 080 dollars (106 365 euros) en octobre 2025 à moins de 70 000 dollars (59 000 euros) début février 2026, le mythe de l’or numérique semble s’effondrer. Explication de la chute historique du bitcoin à travers Strategy, un fonds spéculatif détenant uniquement des bitcoins comme actifs. Une stratégie « monoproduit financier » catastrophique ?


Le 5 février 2026, l’action de la société Strategy, figure emblématique des Bitcoin Treasury Companies, ces sociétés dont l’actif est quasi exclusivement constitué de bitcoins, perdait 17 % de sa valeur. Ce jour-là, le marché anticipe correctement l’annonce de 12,6 milliards de dollars (10,6 milliards d’euros) de pertes au quatrième trimestre 2025, juste après la clôture du jour.

Sa valeur connaît une forte reprise technique le lendemain avec les propos rassurants du dirigeant sur sa trésorerie. Elle affiche pourtant le 6 février, à 135 dollars (plus de 113 euros), un plongeon de 70 % par rapport à son plus haut historique de 473 dollars (399 euros) le 20 novembre 2024, juste après la réélection de Donald Trump.

Cours de l’entreprise Strategy depuis 2016.
Boursorama

Au commencement était le bitcoin

Dans un article paru dans The Conversation France en novembre 2017, nous rappelions la vraie nature du bitcoin : un actif numérique sans aucune caractéristique d’une monnaie – unité de compte, moyen de paiement obligatoire et réserve de valeur –, de valeur intrinsèquement nulle, à la différence de l’or qui est aussi un métal utile à l’industrie.

L’algorithme de départ fixe le plafond des bitcoins à 21 millions de jetons. La divisibilité de l’actif crypté à 8 décimales, le satoshi, du nom de son inventeur, permet à n’importe quel Terrien d’en acheter, puisqu’un centième de dollar donne au moins 10 satoshis – 1 bitcoin se décomposant en 100 millions de satoshis. C’est ainsi que le bitcoin devient le support d’une bulle spéculative mondiale inédite dans l’histoire.

En mars 2025, nous analysions dans ces colonnes les causes de la flambée spectaculaire du bitcoin depuis l’élection de Donald Trump. La cryptomonnaie passe dès la publication des résultats du vote, le 6 novembre 2025, de 70 000 dollars à 90 000 dollars (de 59 000 euros à 75 900 euros), pour culminer le 20 janvier 2025, jour de l’investiture officielle, à plus de 109 000 dollars (105 000 euros).

Le nouveau président, ex-contempteur du bitcoin, se mue en féroce thuriféraire des cryptomonnaies, ambitionnant de faire des États-Unis leur premier marché. Nous soulignions que l’arrivée massive de néoinvestisseurs, convaincus par les réseaux sociaux que la cryptomonnaie finirait par atteindre la barre du million de dollars, avait créé un écosystème dopant le bitcoin via les nouvelles technologies et l’apparition de trackers sur les cryptoactifs (des fonds communs accessibles à tous).

Le soufflé « trumpien » du bitcoin s’effondre

Depuis notre article de mars 2025, deux décisions de l’État fédéral ont attisé la spéculation.

La première est la création du Strategic Bitcoin Reserve, une réserve officielle de bitcoins détenue par le gouvernement américain. Elle n’a, à ce jour, été alimentée que par des confiscations (toujours susceptibles d’être contestées en justice) sans achat sur le marché pour un total 200 000 bitcoins, soit 1 % de l’encours des bitcoins.

La seconde est l’adoption par le Congrès américain en juillet 2025 du Genius Act facilitant l’essor des stablecoins de paiement. Ces jetons numériques adossés au dollar sont de plus en plus utilisés comme moyen de paiement instantané sans frais partout dans le monde, y compris par de grandes entreprises.




À lire aussi :
Le bitcoin a-t-il atteint son pic le 20 janvier 2025 ?


Poussé par la spéculation, le bitcoin inscrit un plus haut historique le 6 octobre 2025 à 126 080 dollars (106 365 euros) avant de chuter lourdement sous les 70 000 dollars (59 000 euros) début février 2026.

Strategy, gigantesque fonds spéculatif monoproduit

Cette correction révèle brutalement les fragilités de l’écosystème des cryptoactifs. Symbole flamboyant de ce nouveau monde, les Bitcoin Treasury Companies forment un ensemble de sociétés dont l’objet principal, et souvent unique, est d’amasser des cryptoactifs, en levant des capitaux sous forme d’actions ou d’obligations. L’objectif : profiter de la hausse fulgurante des cours et de l’engouement spectaculaire des marchés.

La plus emblématique de ces sociétés est indéniablement Strategy, une obscure société de software dénommée Microstrategy jusqu’en 2025. Elle réalise à peine 500 millions de dollars (plus de 421 millions d’euros) de chiffre d’affaires dans son cœur de métier, le développement de logiciels d’analyse de données pour le management des entreprises et les applications sur mobiles.

Compte de résultat de la société Strategy depuis 2021.
Boursorama

Le 11 août 2020, son fondateur Michael Saylor prend un virage stratégique et ontologique en annonçant un premier achat de bitcoins de 250 millions de dollars (210,8 millions d’euros) – 21 454 bitcoins à 11 650 dollars (9 827 euros) – pour doper le rendement de sa trésorerie. Les premiers investissements s’avérant gagnants, il multiplie les achats en moyennant à la hausse. Cette stratégie boursière classique chez les spéculateurs téméraires se finit en général très mal, comme le rappelle la bible des traders américains Reminiscences Of a Stock Operator, que nous avions traduite en 2005.

Les achats s’amplifient en 2023 et 2024, financés par un plan dévoilé en octobre 2024, intitulé « 21/21 », à savoir une levée de fonds sur le marché de 21 milliards de dollars (17,7 milliards d’euros) d’actions et de 21 milliards de dollars de titres obligataires. En novembre 2024, juste après l’élection de Donald Trump, la société déclarait déjà à la Securities and Exchange Commission (SEC) détenir 279 420 bitcoins à un cours moyen de 42 700 dollars (un peu plus de 36 000 euros).

La politique dérégulatrice de l’administration Trump déclenche une vague d’achats frénétiques de Strategy, fondant sa stratégie sur la croyance en une hausse permanente du bitcoin. Valorisée en bourse à 92 milliards de dollars en décembre 2024, la société fait une entrée fracassante dans le très sélectif indice Nasdaq 100, le 23 décembre 2024.

C’est ainsi que Strategy s’est métamorphosée en un gigantesque Hedge Fund détenant le 6 février 2026 environ 713 500 bitcoins à un prix d’acquisition moyen de 76 000 dollars (plus de 64 000 euros), soit un coût d’acquisition global de 54 milliards de dollars (45,5 milliards d’euros).

Quels risques pour les parties prenantes de Strategy ?

Depuis son plus haut historique d’août 2025, avec une capitalisation boursière de 104 milliards (87,7 milliards d’euros), la valorisation de la société suit la chute du bitcoin. Elle se situe le 6 février 2026 à seulement 45 milliards de dollars (environ 38 milliards d’euros), soit en dessous de son investissement dans la cryptomonnaie.

Aujourd’hui, la complexe ingénierie boursière de la société a abouti à la création de trois grands types de titres émis :

  • Les actions ordinaires, avec 28 milliards de dollars (23,6 milliards d’euros) levés, versent un dividende qui peut être interrompu à tout moment.

  • Les cinq catégories d’actions dites préférentielles, avec 7 milliards de dollars (soit 5,9 milliards d’euros), sont des titres non remboursables constitutifs de fonds propres. Elles versent un dividende annuel prioritaire, compris entre 8 et 10 % mais sans garantie en cas de pertes comptables.

  • Les obligations convertibles, avec 8 milliards dollars (environ 6,7 milliards d’euros), sont des dettes de la société. Celles-ci ne versent aucun coupon, mais permettent à leur détenteur de profiter de la hausse des actions (donc du bitcoin) par une simple conversion des obligations en actions à certains moments. En cas de chute des actions, elles devront être remboursées à parité en 2030.

À ce jour, la société Strategy peut faire face à ses engagements financiers avec une trésorerie supérieure à un milliard de dollars et un bilan toujours positif. En revanche, une chute du bitcoin en dessous de 10 000 dollars conduirait à un bilan négatif et une situation d’insolvabilité d’autant qu’il existe une certaine opacité sur l’utilisation de la trésorerie.

L’effondrement du bitcoin : un risque systémique ?

En cas de ventes paniques sur l’ensemble des cryptoactifs, qui pèse environ 2 500 milliards de dollars (plus de 2 milliards d’euros) le 6 février 2026 (55 % pour le bitcoin et 10 % pour l’ethereum) contre 4 200 milliards (soit 3 500 milliards d’euros) au plus haut en octobre 2025, les pertes seraient réparties entre de très nombreux spéculateurs.

Les pertes des Bitcoin Treasury Companies seraient épongées par les actionnaires ou des obligataires. Une situation qui rappellerait l’effondrement de Terra en mai 2022, qui a fait disparaître 30 milliards de dollars (plus de 25 milliards d’euros) en quelques jours sans conséquence pour la stabilité financière.

Malgré les inquiétudes du Comité européen du risque systémique publiées le 25 septembre 2025, le secteur bancaire en resterait très largement immunisé. Plus globalement, il est difficile de mesurer la déflagration de l’écroulement du secteur des cryptomonnaies sur l’économie. Cependant, il est évident que le retournement de l’effet de richesse, c’est-à-dire la perte de valeur des investisseurs qui dépensent sur la base de la valorisation de leur portefeuille de cryptoactifs, jouerait sur le moral de l’ensemble des acteurs économiques.

Quoi qu’il en soit, dans la tourmente actuelle, le mythe de l’or numérique s’est effondré avec le cours du bitcoin. Plus que jamais le seul actif en dernier ressort accepté dans le monde entier reste l’or, dont les cours tutoient leur plus haut au-delà de 5 000 dollars (plus de 4 200 euros) l’once.

The Conversation

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Strategy, l’entreprise reine du bitcoin, s’effondre en bourse – https://theconversation.com/strategy-lentreprise-reine-du-bitcoin-seffondre-en-bourse-275462

La fermentation, entre conservation des aliments et conservatisme en ligne

Source: The Conversation – in French – By Clémentine Hugol-Gential, Maître de conférences en sciences de l’information et de la communication, Université Bourgogne Europe

La fermentation est en vogue sur les réseaux sociaux. Maria Verkhoturtseva/Pexels, CC BY

Prendre le temps, cuisiner maison, fermenter ses aliments : ces pratiques séduisent aujourd’hui largement. Mais, sur les réseaux sociaux, la valorisation de la fermentation s’accompagne parfois d’une vision très normative du temps, qui peut servir de support discret à des formes contemporaines de conservatisme culturel, notamment autour de la famille et des rôles de genre.


Fermenter, c’est d’abord accepter le temps long. Laisser agir des micro-organismes invisibles, renoncer à l’immédiateté, attendre sans pouvoir totalement maîtriser le résultat. Cette temporalité singulière, au cœur des pratiques fermentaires, est loin d’être anodine. Dès le XIXe siècle, Jean Anthelme Brillat-Savarin soulignait que la gastronomie s’inscrit dans une articulation complexe entre nature, techniques culinaires et temps de la transformation. La fermentation, pratique ancestrale par excellence, matérialise cette alliance entre patience, savoir-faire, mais également transformation du vivant.

Esthétique de la lenteur

Aujourd’hui, le retour en grâce du levain, du kéfir, de la lactofermentation ou du kombucha s’inscrit dans un contexte marqué par une critique diffuse de l’accélération contemporaine. Comme l’analyse le sociologue Hartmut Rosa, la modernité se caractérise par une compression du temps, une injonction permanente à faire plus vite, plus souvent, plus efficacement, au détriment du sens.

Sur les réseaux sociaux, la fermentation est fréquemment associée à une esthétique de la lenteur : gestes répétitifs, routines domestiques, attention portée aux cycles naturels. Ces images mettent en scène un temps maîtrisé, ordonné et aussi souvent ritualisé. Le temps n’est plus seulement une contrainte biologique du processus fermentaire, il devient un marqueur moral et fait référence à un passé idéalisé. Dans ce cadre, l’appel à la tradition fonctionne dans les discours alimentaires comme un argument d’autorité. En valorisant le temps long, on naturalise certaines pratiques tout en disqualifiant implicitement d’autres rythmes de vie jugés trop rapides. Le temps devient alors un critère de distinction et la fermentation apparaît comme une réponse presque morale à l’urgence généralisée.

Temporalité domestique et assignation des rôles

L’anthropologue Claude Lévi-Strauss avait déjà mis en évidence le rôle fondamental du temps dans les classifications alimentaires, en situant la fermentation du côté du « pourri », c’est-à-dire d’un état intermédiaire et culturellement ambivalent. Aujourd’hui, cette ambivalence est largement esthétisée : le temps qui transforme devient un temps qui élève. Cette morale de la lenteur prend une dimension particulière dans les contenus liés aux esthétiques « tradwife ».

Sur Instagram ou TikTok, la fermentation est souvent intégrée à une mise en scène du quotidien domestique. Le foyer y apparaît comme un espace hors de l’urgence, protégé de la frénésie extérieure. Or, ce temps long est très fortement genré. La patience, l’attention aux détails, la disponibilité temporelle sont présentées comme des qualités féminines. La fermentation devient ainsi un support symbolique pour réaffirmer une division traditionnelle des rôles. Il revient alors aux femmes le temps du soin, de l’attente et de la transmission.

Les analyses de Marie-Claire Frédéric sur la fermentation comme réaction à une société perçue comme excessivement hygiéniste et industrialisée éclairent directement ces mises en scène contemporaines. La réhabilitation du microbien s’y accompagne d’une revalorisation du temps long. Mais sur les réseaux sociaux, cette réhabilitation ne se limite pas au vivant : elle s’étend à des formes d’organisation sociale idéalisées, associant lenteur, stabilité et ordre domestique. Les esthétiques tradwife trouvent alors une forte résonance. La fermentation devient un support symbolique pour réaffirmer un foyer préservé. Dans ce dernier, le temps est d’abord genré et la nostalgie, d’un passé supposé plus stable, se rejoue à travers des gestes culinaires présentés comme naturels et surtout féminins.

Le temps comme outil de politisation discrète

L’un des traits les plus saillants de ces discours réside dans leur caractère non conflictuel. Le temps long y est présenté comme une valeur universelle associée à des registres partagés tels que le soin, la santé, l’écologie ou bien encore le respect du vivant. Cette neutralité apparente leur confère une force particulière. Comme le montrent les travaux sur la circulation des croyances en ligne, ce sont souvent les récits les plus consensuels qui véhiculent les normes sociales les plus puissantes, précisément parce qu’ils échappent à la controverse. Dans le cas de la fermentation, le temps devient ainsi un cadre normatif qui hiérarchise les manières de vivre, de produire et de consommer. À travers des gestes domestiques ordinaires et des images de routines maîtrisées, se dessine une conception implicite et naturalisée de l’ordre social avec le temps pour vertu.

Cette politisation du temps est d’autant plus efficace qu’elle s’opère à bas bruit. La fermentation agit comme un support de politisation douce, au sens où elle permet de diffuser une vision du monde sans jamais la formuler explicitement comme telle. À travers des gestes domestiques, des images de bocaux alignés ou de pains longuement façonnés à la main, apparaît une conception implicite de l’ordre social. Le temps domestique, présenté comme maîtrisé et harmonieux, est ainsi valorisé au détriment d’autres formes de temporalités plus contraintes et fragmentées.

Lorsque le temps long est associé à une morale de l’autonomie et de la responsabilité individuelle, fermenter chez soi et « prendre le temps » deviennent des marqueurs de vertu personnelle voire de bonne citoyenneté alimentaire. Cette injonction repose pourtant sur une inégalité structurelle face au temps et aux ressources, que les discours tendent à invisibiliser. Présenté comme un idéal apolitique, le temps long fonctionne alors comme un outil de régulation sociale.

Fermenter : conservateur ou conservatisme ?

Il serait évidemment erroné d’assimiler la fermentation à une idéologie conservatrice. Les travaux de Sandor Ellix Katz rappellent au contraire la diversité historique, culturelle et politique des pratiques fermentaires, souvent liées à des formes d’émancipation et de transmission collective. La fermentation n’est ni univoque, ni intrinsèquement synonyme de repli genré sur le domestique.

L’analyse des discours numériques montre pourtant la puissance idéologique de certains récits qui accompagnent les pratiques fermentaires. Le temps, érigé en ressource symbolique centrale de la fermentation, devient alors un opérateur discursif puissant. Selon la manière dont il est mis en récit, il contribue à hiérarchiser les modes de vie et à naturaliser certaines conceptions de l’ordre social. Présentés comme apolitiques, ces récits diffusent des normes d’autant plus efficaces qu’elles restent rarement nommées et semblent naturalisées.

C’est dans ce cadre que se joue, en creux, la question de la place des femmes. Ainsi, sans jamais être formulés explicitement, certains discours sur la fermentation contribuent à réactiver des représentations traditionnelles du foyer et des rôles féminins, en les enveloppant d’un vocabulaire du soin et du bon sens. Comprendre ces dispositifs discursifs permet de saisir comment des pratiques alimentaires en apparence anodines deviennent des supports de recomposition contemporaine du conservatisme, non pas en conservant des aliments, mais en contribuant à conserver, à bas bruit, certaines représentations du monde social.

The Conversation

Clémentine Hugol-Gential ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La fermentation, entre conservation des aliments et conservatisme en ligne – https://theconversation.com/la-fermentation-entre-conservation-des-aliments-et-conservatisme-en-ligne-273966