L’Australie : puissance régionale, dépendance globale ?

Source: The Conversation – France in French (3) – By Pierre-Christophe Pantz, Enseignant vacataire et chercheur associé à l’Université de la Nouvelle-Calédonie (UNC), Université de la Nouvelle-Calédonie

Il y a cinq ans, l’Australie dénonçait l’« accord du siècle » qu’elle avait signé avec la France sur la livraison de 12 sous-marins traditionnels, optant à la place pour une alliance avec les États-Unis et le Royaume-Uni – AUKUS – devant lui permettre de recevoir des sous-marins nucléaires fournis par Washington. Ce projet prend déjà du retard. Sans sortir d’AUKUS, Canberra se rapproche d’autres pays de l’Indo-Pacifique pour renforcer sa défense dans un contexte sur lequel plane toujours le risque de la déflagration que constituerait une invasion de Taïwan par la Chine.


Les doutes formulés fin janvier par le Congressional Research Service (CRS) sur la capacité des États-Unis à livrer des sous-marins à l’Australie ravivent le sentiment de vulnérabilité stratégique de Canberra.

Alors que la rivalité s’intensifie dans l’Indo-Pacifique, l’Australie renforce ses partenariats de sécurité dans son voisinage immédiat, comme en témoignent les récents accords conclus avec la Papouasie-Nouvelle-Guinée (2025) et l’Indonésie (2026) dans une tentative de limiter sa dépendance à l’égard de Washington et de renforcer sa marge d’autonomie stratégique.

AUKUS : une stratégie finalement incertaine pour l’Australie

L’alliance AUKUS, pacte de sécurité tripartite signé en 2021 entre l’Australie, le Royaume-Uni et les États-Unis, a marqué un tournant pour la défense australienne. Par ce partenariat, Canberra rompait le « contrat du siècle » précédemment signé avec la France, qui prévoyait la livraison par Paris de douze sous-marins conventionnels, pour se tourner vers une flotte à propulsion nucléaire de conception américaine. Le pilier n°1 de cette alliance, le « transfert de sous-marins nucléaires », devait moderniser la flotte australienne et garantir l’accès aux technologies avancées.

Près de cinq ans après la signature, la mise en œuvre accuse des retards importants et des coûts croissants. Aucun sous-marin australien de nouvelle génération ne sera probablement opérationnel avant le début des années 2040, ce qui place l’Australie dans une situation de dépendance et de vulnérabilité stratégique. Plusieurs experts expriment leur scepticisme quant à la capacité des États-Unis à respecter leurs engagements de livraison.

Ces incertitudes se sont aggravées depuis 2025 avec le retour à la présidence de Donald Trump et de sa doctrine America First, qui tend à concevoir les alliances sous un angle plus transactionnel, évaluées à l’aune des intérêts immédiats et révisés des États-Unis. En effet, lors de la visite du premier ministre Anthony Albanese à la Maison Blanche en octobre 2025, les discussions sur AUKUS avaient été largement éclipsées par un accord sur les terres rares australiennes, prioritaire pour Washington face aux initiatives chinoises en la matière.

Trump a néanmoins tenté de rassurer Canberra sur la livraison des sous-marins, promettant le respect des engagements du « pilier 1 », mais ces assurances apparaissent en partie intéressées, s’inscrivant avant tout dans le contexte du traité sur les terres rares. Dans ce contexte, et comme le confirme la récente National Security Strategy publiée par la Maison Blanche, le Pacifique Sud semble relégué au second plan dans les priorités américaines, ce qui nourrit les interrogations australiennes quant à la solidité de l’engagement de Washington.

Les inquiétudes australiennes se trouvent renforcées par un rapport du CRS publié en janvier 2026. Le document souligne que les sous-marins promis pourraient rester sous commandement américain tout en opérant depuis des bases australiennes, les États-Unis souhaitant conserver le contrôle de ces appareils en vue d’un hypothétique conflit avec la Chine au sujet de Taïwan. Expression du rapport, cette « division du travail militaire » confirmerait que l’Australie pourrait rester un simple relais stratégique sans pleine autonomie opérationnelle. Bien que le CRS n’engage pas la position officielle de l’administration américaine, ce rapport renforce les doutes sur la fiabilité de l’alliance.

Renforcer l’influence régionale pour sécuriser son voisinage

Face à ce contexte incertain et les avancées de la présence chinoise dans le Pacifique – notamment à travers les Nouvelles Routes de la soie – l’Australie mène une contre-offensive diplomatique et sécuritaire destinée à préserver ce qui relève, de son point de vue, de sa sphère d’influence.

Ces toutes dernières années, Canberra a ainsi consolidé un réseau d’accords sécuritaires avec plusieurs États du Pacifique, à l’image du traité Falepili signé avec Tuvalu en 2023 ou de l’accord bilatéral conclu avec Nauru en 2024. Cette stratégie de verrouillage vise, sans les nommer, à limiter les ingérences chinoises et à réaffirmer l’influence australienne dans son environnement régional. Cette évolution traduit une évolution notable de la culture stratégique australienne, longtemps marquée par une dépendance assumée au parapluie américain.

Dans cette continuité, le traité Pukpuk signé avec la Papouasie-Nouvelle-Guinée (octobre 2025) et l’accord, encore plus récent, conclu avec l’Indonésie (février 2026) constituent deux accords sécuritaires majeurs, scellés à quelques mois d’intervalle, révélant une priorité stratégique désormais assumée : faire du voisinage septentrional un glacis destiné à tenir la rivalité sino-occidentale à distance du sanctuaire australien.

Ces dispositifs associent coopération militaire, intégration des forces et structuration d’un réseau régional destiné à sécuriser ses « marches » mélanésiennes et au-delà. Ils s’inscrivent dans un espace où d’autres acteurs conservent également des intérêts structurants, au premier rang desquels la France, présente en Nouvelle-Calédonie, dont la permanence stratégique contribue, elle aussi, à la configuration sécuritaire du Pacifique insulaire.

Toutefois, derrière le discours de partenariat « d’égal à égal », ils traduisent aussi un équilibre délicat entre protection et contrôle : pour les États insulaires du Pacifique, qui ne peuvent que constater la persistance d’une asymétrie de puissance, ces dispositifs constituent une garantie de sécurité face aux pressions chinoises, tout en ravivant le risque de dépendance à l’égard de l’Australie.

Le paradoxe d’une puissance moyenne : leadership régional sous dépendance américaine

À ce jour, une rupture avec l’AUKUS demeure toutefois très improbable tant les interdépendances militaires et technologiques sont profondes. Pourtant, les incertitudes entourant l’exécution du traité rappellent que les priorités de Washington peuvent évoluer au risque de cantonner Canberra à un rôle de « partenaire subordonné ».

À ce titre, si l’Australie ne cherche pas une autonomie stratégique complète vis-à-vis des États-Unis, elle s’efforce en revanche de compenser cette dépendance par sa capacité à regagner une influence régionale érodée par les initiatives de Pékin. En effet, en consolidant son ancrage (diplomatique, politique, sécuritaire, économique) dans le Pacifique, elle ambitionne moins de s’émanciper des États-Unis que de devenir un acteur régional incontournable capable de concurrencer et de contenir l’influence spectaculaire et multiforme de la Chine.

Cette posture reflète la condition classique d’une puissance moyenne : assez influente pour structurer son environnement immédiat, mais trop dépendante pour s’affranchir des rapports de force imposés par les grandes puissances, en l’occurrence chinoise et américaine. Canberra se trouve par ailleurs dans un exercice d’équilibriste : contenir la Chine tout en préservant avec elle une relation économique et commerciale essentielle et, dans le même temps, affirmer son leadership sans apparaître comme un simple relais de la nouvelle stratégie américaine de l’administration Trump.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’Australie : puissance régionale, dépendance globale ? – https://theconversation.com/laustralie-puissance-regionale-dependance-globale-276086

Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue

Source: The Conversation – France in French (3) – By Raul Zepeda Gil, Research Fellow in the War Studies Department, King’s College London

« El Mencho », chef d’un puissant cartel, a été abattu pendant une opération militaire le 22 février. Immédiatement, son organisation a semé la terreur dans de nombreux États du pays. On dénombre déjà plusieurs dizaines de morts. Ce type d’épisode intervient fréquemment, notamment sous la pression de Washington, qui exige des autorités mexicaines qu’elles s’en prennent aux trafiquants locaux, dont la production est en large partie destinée aux États-Unis. Mais l’efficacité des éliminations physiques des parrains reste à démontrer.


Le chef du cartel Jalisco New Generation (CJNG), Nemesio Oseguera Cervantes, plus connu sous le nom d’« El Mencho », a succombé à ses blessures le 22 février, peu après avoir été capturé par les autorités mexicaines dans l’État de Jalisco (ouest du pays) pendant une opération au cours de laquelle il avait été touché par des tirs. Cette opération, qui s’est déroulée sur fond d’exigences états-uniennes quant à des « résultats tangibles » du Mexique dans la lutte contre le trafic de fentanyl, semble avoir bénéficié du soutien des services de renseignement de Washington.

Il s’agit de l’intervention la plus importante des forces de l’ordre mexicaines contre les cartels depuis la capture de l’ancien baron de la drogue Joaquín « El Chapo » Guzmán en 2016. Le CJNG est l’une des organisations criminelles les plus puissantes du Mexique et est accusé par les États-Unis, de même que le cartel de Sinaloa, de jouer un rôle clé en matière de production et de trafic de fentanyl.

Éliminer des individus n’entraîne pas la disparition ni même l’amoindrissement du marché de la drogue

L’élimination d’« El Mencho » a peut-être permis aux autorités mexicaines de remporter une victoire politique auprès de Washington. Mais le pays paie déjà un tribut élevé pour cette opération. Lorsque l’État mexicain élimine une figure importante d’un cartel, s’ensuit souvent une longue période de violence et d’instabilité. Dès l’annonce du décès du trafiquant, une vague de violences commises par ses hommes a balayé le pays.

Dans mes recherches sur les conflits criminels dans la région de Tierra Caliente, dans l’ouest du Mexique, je retrace la façon dont les premières vagues d’arrestations et d’éliminations par l’État ont remodelé les groupes criminels locaux, brisé des alliances et ouvert la voie à de nouveaux acteurs et dirigeants. C’est grâce à ce cycle de répression étatique et de réorganisation des cartels qu’El Mencho s’est fait connaître.

El Mencho a démarré dans sa carrière de criminel en tant que membre opérationnel lié au cartel Valencia, une organisation basée dans l’État de Michoacán. Le groupe a perdu du terrain à la fin des années 2000 sous la pression soutenue des autorités. Après le démantèlement des éléments clés du réseau Valencia vers 2010, El Mencho et d’autres membres restants du groupe se sont déplacés vers Jalisco, plus au nord, et ont fondé le CJNG.

Les conditions qui ont permis l’ascension du CJNG proviennent du même répertoire de mesures répressives que les autorités déploient aujourd’hui contre lui. Ce schéma est important, car il remet en cause une hypothèse courante parmi les décideurs politiques, y compris au sein d’agences états-uniennes telles que la Drug Enforcement Administration, selon laquelle éliminer un « chef » équivaut à démanteler un marché criminel.

En réalité, l’élimination des parrains mexicains n’entraîne pas la disparition du marché de la drogue, ni celle des routes de trafic. Ce qui change, c’est l’équilibre des pouvoirs entre les groupes qui se disputent le territoire, la main-d’œuvre et l’accès aux ports, aux routes et aux autorités locales.

Des études de la stratégie dite « kingpin », qui consiste pour les forces de l’ordre à cibler délibérément les chefs de cartels, ont montré que les arrestations et les éliminations entraînent souvent une augmentation à court terme des homicides et de l’instabilité au Mexique. Certaines études suggèrent que la violence augmente pendant plusieurs mois après l’élimination d’un chef, tandis que d’autres recherches montrent que l’assassinat d’un parrain peut provoquer une augmentation des violences plus forte qu’une arrestation.

Cela s’explique par le fait qu’un cartel touché est confronté à une succession soudaine et recourt à la violence pour empêcher – ou contrer – ses rivaux qui testent la nouvelle direction et tentent de renégocier les zones de contrôle. Les groupes criminels ne pouvant pas recourir au système judiciaire officiel pour résoudre leurs différends, ils ont tendance à le faire par le biais de violences ouvertes ou de négociations imposées par la force.

Cette logique se manifeste une nouvelle fois après la mort d’El Mencho. Les rapports faisant état de membres armés du cartel bloquant les routes, commettant des incendies criminels et semant le chaos dans plusieurs États correspondent à un scénario familier : une organisation touchée signale que sa capacité demeure intacte, punit l’État et avertit ses rivaux locaux qu’ils n’ont pas intérêt à chercher à profiter de la situation.

Même si l’État parvient à contenir cette vague de violence, le risque le plus grave réside dans ce qui suivra. Un vide au niveau du leadership favorise les divisions internes et l’opportunisme externe de la part de rivaux qui attendaient une occasion pour tester les limites et régler leurs comptes.

Par exemple, en 2024, l’arrestation du chef du cartel de Sinaloa, Ismael « El Mayo » Zambada, a provoqué une vague de violence dans l’État de Sinaloa, les différentes factions de l’organisation se disputant le pouvoir.

La politique de lutte contre la drogue des États-Unis

Un autre cycle qui se répète sans cesse en Amérique latine : la politique états-unienne en matière de drogues façonne les programmes de sécurité dans toute la région. Une augmentation du nombre de décès par overdose aux États-Unis, par exemple, peut y provoquer une panique politique et inciter Washington à faire pression sur les gouvernements latino-américains pour qu’ils prennent des mesures, généralement par le biais d’une répression militarisée.

Ces gouvernements réagissent par des mesures répressives, des raids et des arrestations très médiatisées. S’ensuit alors une recrudescence de la violence à mesure que les organisations criminelles se fragmentent ; puis, après un certain temps, les gouvernements tentent de désamorcer la situation. Le cycle recommence un peu plus tard, lorsque les États-Unis placent de nouveau le trafic de drogue en tête de leurs priorités.

L’interdiction des drogues perpétue ce cycle en excluant toute réponse autre que la force ou le droit pénal, sans pour autant produire de résultats significatifs. La plupart des pays ont criminalisé les drogues. Mais malgré les rapports des gouvernements faisant état d’une augmentation des saisies de drogues chaque année, les décès liés à la consommation de drogues dans le monde continuent d’augmenter.

Mêmes causes, mêmes effets

Les forces de sécurité mexicaines ne peuvent mettre fin à un marché transnational largement financé par la demande états-unienne, quel que soit le nombre d’arrestations spectaculaires qu’elles effectuent. Les opérations qui aboutissent à l’élimination ou à la détention de figures importantes des cartels ne font que rediriger et réorganiser le trafic de drogue, tout en intensifiant souvent la violence.

Si le Mexique et les États-Unis veulent réduire le nombre de décès liés aux cartels, ils doivent cesser de considérer l’élimination des barons de la drogue comme le principal indicateur de réussite. Si une opération très médiatisée satisfait temporairement Washington, ce sont les citoyens mexicains qui doivent trop souvent en subir les conséquences.

The Conversation

Raul Zepeda Gil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue – https://theconversation.com/le-mexique-a-feu-et-a-sang-apres-lelimination-par-larmee-dun-baron-de-la-drogue-276779

L’audition des Clinton peut-elle faire basculer l’affaire Epstein ?

Source: The Conversation – France in French (3) – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

L’ancien président des États-Unis (1993-2001) et son épouse, ancienne secrétaire d’État (2009-2013) et candidate démocrate à la présidence en 2016, vont témoigner devant la Chambre des représentants dans le cadre de la commission d’enquête sur Jeffrey Epstein. Une audience choc qui pourrait se dérouler selon plusieurs scénarios différents.


Les auditions de Bill et Hillary Clinton devant la commission d’enquête de la Chambre des représentants sur l’affaire Epstein, les 26 et 27 février prochain, s’annoncent comme un moment politique et médiatique majeur aux États-Unis. Jeffrey Epstein, financier déchu condamné pour infractions sexuelles, est au cœur d’un vaste scandale mêlant exploitation de mineures, réseaux d’influence et complaisances au sommet de l’État, qui continue de produire des répliques bien après sa mort en détention en 2019.

Bill Clinton a effectué plusieurs vols à bord du jet privé d’Epstein et la publication de photos le montrant aux côtés de Ghislaine Maxwell a nourri soupçons et théories, faisant de son nom l’un des plus scrutés dans ce dossier. Hillary est, elle, convoquée car elle doit préciser ce qu’elle sait des relations entre son mari et Epstein.

Pourquoi les Clinton ont-ils fini par accepter de témoigner ?

Pendant des mois, le couple Clinton a opposé une résistance frontale à la commission de contrôle de la Chambre, arguant que les convocations étaient juridiquement contestables et politiquement motivées.

Rappelons que la « commission sur l’affaire Epstein » n’est pas une institution permanente ; elle a été créée spécialement pour le dossier Epstein. Il s’agit d’une enquête conduite par des commissions existantes, principalement la commission de contrôle (Oversight), qui disposent du pouvoir d’assigner des témoins et d’organiser des auditions.

Les Clinton estiment que la commission de la Chambre des représentants chargée d’enquêter sur l’affaire Epstein leur est hostile parce qu’elle est contrôlée par la majorité républicaine, politiquement opposée à leur camp, notamment sous la présidence du républicain James Comer, à la tête de la House Committee on Oversight and Accountability. Ils dénoncent une focalisation jugée excessive sur les relations passées entre Bill Clinton et Jeffrey Epstein, estimant que d’autres personnalités liées à Epstein ne font pas l’objet de la même attention, ce qui selon eux révèle un ciblage politique.

Ils critiquent également des méthodes d’enquête qu’ils jugent agressives, comme les assignations à comparaître, les auditions sous serment à huis clos et la menace de poursuites pour entrave en cas de refus de coopérer, considérant que ces procédés suggèrent une présomption de culpabilité. Enfin, ils affirment que la convocation de Hillary Clinton s’inscrit dans un contexte de polarisation politique intense aux États-Unis, où certaines commissions parlementaires sont utilisées pour affaiblir des adversaires médiatiquement, alors même qu’elle n’est pas inculpée dans cette affaire et qu’elle est entendue comme témoin.

Le ton des échanges s’est durci jusqu’à la menace explicite d’un vote pour outrage au Congrès, signe que le bras de fer dépassait le simple cadre procédural. Sous cette pression, Bill et Hillary Clinton ont finalement accepté de témoigner dans des dépositions distinctes mais coordonnées, transformant un affrontement institutionnel en événement national.

Ce basculement s’explique aussi par la déclassification progressive des dossiers Epstein par le département de la Justice. Des dizaines de milliers de pages mêlant dossiers judiciaires, relevés bancaires, photographies et notes internes ont été rendues publiques, sous forme partiellement caviardée pour protéger les victimes. Cette mise à nu d’un système de prédation et de connivences a intensifié la demande de transparence. Chaque publication a relancé spéculations et appels à rendre des comptes. Dans ce contexte, le refus persistant des Clinton de se présenter à une audition devenait politiquement intenable. Lors d’un vote au Congrès lié à leur refus initial de témoigner, plusieurs élus démocrates ont voté avec les républicains pour les sanctionner pour outrage au Congrès, affirmant privilégier la responsabilité et la justice pour les victimes plutôt que la loyauté partisane.

La déclassification a fourni à la commission des éléments documentaires et créé un climat où l’absence des témoins les plus exposés devenait toxique sur le plan politique.

Une audience ouverte

Au-delà du cas Epstein, la convocation d’un ancien président et d’une ancienne secrétaire d’État soulève une question historique. Des présidents ont déjà été confrontés à des enquêtes lourdes ou à des procédures de destitution, mais voir un ex-président appelé comme témoin dans une commission parlementaire focalisée sur un scandale d’abus sexuels et de compromission d’élites constitue une situation quasi inédite par sa charge symbolique. La combinaison d’un ancien couple présidentiel, d’une affaire criminelle devenue symbole de l’impunité des puissants et d’un climat politique polarisé confère à cette audition une dimension exceptionnelle.

Initialement, les discussions sur les modalités du témoignage relevaient d’une gestion classique des risques : huis clos, temps de parole encadré, protocole strict pour limiter les fuites. Les avocats des Clinton plaidaient pour une audition technique et non spectaculaire. La stratégie a toutefois connu une rupture lorsque Hillary Clinton a demandé publiquement que l’audience soit ouverte et retransmise. Ce choix vise à renverser l’accusation d’opacité et à empêcher la diffusion d’extraits partiels susceptibles d’être instrumentalisés. L’audition devient ainsi une scène politique autant qu’un exercice de reddition de comptes.

Cette revendication de transparence répond à la crainte d’une instrumentalisation partisane. Hillary Clinton cherche à apparaître comme une témoin volontaire, exposée à la lumière pour éviter toute manipulation. En rendant la séance publique, elle oblige ses interrogateurs à assumer leurs questions devant l’opinion et tente de déplacer l’attention vers les défaillances institutionnelles qui ont permis à Epstein d’agir. Elle ambitionne ainsi de transformer une position défensive en posture offensive, en se plaçant du côté des victimes et de la vérité.

Au cœur de cette stratégie figure la promesse de révélations importantes sur la manière dont l’État et certaines élites ont géré le cas Epstein. Hillary Clinton a évoqué des documents accablants et des défaillances systémiques, laissant entendre que le scandale dépasse la question des relations personnelles pour toucher à des choix institutionnels et à des signaux d’alerte ignorés. La question demeure de savoir jusqu’où elle est prête à aller dans la mise en cause d’un système dont elle a elle-même fait partie.

L’audition autour de l’affaire Epstein pourrait se dérouler selon quatre scénarios clés, chacun susceptible de produire un impact concret sur la perception publique et l’évolution judiciaire du dossier.

Quatre scénarios

Le premier scénario reste celui du choc maîtrisé. Les Clinton pourraient reconnaître certaines relations sociales ou financières jugées aujourd’hui discutables, tout en niant toute connaissance des crimes d’Epstein. Dans ce cadre, l’audition se transformerait en un exercice de clarification : le public et les enquêteurs obtiendraient quelques confirmations sur les fréquentations et les rendez-vous, mais aucune révélation explosive ne viendrait bouleverser les positions déjà établies. L’effet immédiat serait limité : la couverture médiatique serait intense mais essentiellement centrée sur les contradictions mineures ou sur la perception de sincérité des Clinton.

Le second scénario plausible serait celui de la mise en cause institutionnelle. L’audition pourrait révéler que certains manquements au sein des agences fédérales, des forces de l’ordre ou des structures judiciaires ont permis à Epstein de continuer ses activités sans véritable sanction. Ce scénario élargirait l’enquête au-delà des Clinton, mettant sous pression d’autres responsables politiques ou financiers et déclenchant des appels à des réformes structurelles. Les documents et témoignages mis en avant pourraient révéler un système de protection indirecte ou de négligence, redessinant la compréhension publique des défaillances institutionnelles.

Un troisième scénario envisageable serait l’audition comme affrontement politique. Dans ce cas, chaque camp chercherait à instrumentaliser les déclarations pour déstabiliser l’adversaire, transformant le moment judiciaire en bataille idéologique. Les Clinton, mais aussi leurs opposants, pourraient chercher à utiliser chaque mot à des fins de communication politique, détournant l’attention du cœur du dossier. Ce scénario risquerait de brouiller le récit central de l’affaire, mais pourrait aussi révéler des stratégies de manipulation et d’influence autour du scandale.

Enfin, un scénario complémentaire mais non négligeable serait celui de révélations inédites ou confirmations de défaillances systémiques. L’audition pourrait mettre au jour des documents jusque-là confidentiels ou des témoignages de victimes, donnant une dimension criminelle renouvelée au dossier. Dans ce cas, l’affaire Epstein ne se limiterait plus à un scandale médiatique ou à une controverse politique : elle deviendrait le symbole d’un échec généralisé des institutions à protéger les victimes et à sanctionner les auteurs.

Un grand moment de vérité ?

Dans tous ces scénarios, le point commun est la mise en lumière de la fragilité d’un système où le pouvoir et le réseau social peuvent, dans certains cas, prévaloir sur la justice. L’audition des Clinton, qu’elle soit prudente ou révélatrice, pourrait donc devenir un moment de vérité national : elle a le potentiel de transformer le scandale Epstein d’affaire privée en affaire systémique, exposant non seulement les acteurs directs mais aussi les complicités et défaillances qui ont permis à ces crimes de perdurer.

Dans la presse, cette audience sera scrutée comme un révélateur du fonctionnement réel du pouvoir, un moment où les lignes partisanes pourraient s’effacer devant l’urgence de la transparence et de la vérité judiciaire.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’audition des Clinton peut-elle faire basculer l’affaire Epstein ? – https://theconversation.com/laudition-des-clinton-peut-elle-faire-basculer-laffaire-epstein-276610

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Source: The Conversation – France in French (2) – By Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.




À lire aussi :
Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

ref. L’« IA edge », qu’est-ce que c’est et à quoi ça sert ? – https://theconversation.com/l-ia-edge-quest-ce-que-cest-et-a-quoi-ca-sert-274050

Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu

Source: The Conversation – France in French (3) – By Sam West, Postdoctoral Researcher, Primary Care Health Sciences, University of Oxford

Les médicaments antiobésité par injections sont disponibles exclusivement sur prescription médicale mais doivent être payés par les patients, sans prise en charge par l’Assurance-maladie. martenaba/Shutterstock.com

Les nouveaux médicaments antiobésité par injections, comme Wegovy ou Mounjaro, montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide. C’est ce que montre une étude récente publiée dans le British Medical Journal. Les chercheurs britanniques interrogent le rapport coût-efficacité pour le système de santé du Royaume-Uni de ces traitements vendus très cher par leurs fabricants. Une analyse éclairante aussi pour la France, où ces médicaments ne sont pas remboursés par l’Assurance-maladie.


Les médicaments antiobésité sous forme de seringues injectables, telles que Wegovy et Mounjaro, ont été présentés comme révolutionnaires. Dans des essais cliniques, les participants ont perdu en moyenne 15 à 20 % de leur poids corporel, des résultats qui semblaient presque miraculeux par rapport aux programmes traditionnels basés sur des régimes et la pratique d’activité physique.

Aujourd’hui, 1 personne sur 50 au Royaume-Uni a recours à ces traitements. La plupart d’entre elles, environ 90 %, les paient de leur poche, pour un coût mensuel compris entre 120 et 250 livres sterling (soit entre 137 et 286 euros, ndlr). Mais il y a un hic : plus de la moitié des personnes arrêtent de prendre ces médicaments dans l’année, principalement pour des raisons financières.

(En France, trois médicaments de cette famille dite des analogues du GLP-1 – Wegovy [sémaglutide], Mounjaro [tirzépatide] et Saxenda [liraglutide] – sont autorisés dans le traitement de l’obésité, sur prescription médicale, et en seconde intention, en cas d’échec de la prise en charge nutritionnelle, en association à un régime hypocalorique et à une activité physique. Ces trois médicaments sont vendus à un prix fixé librement par le laboratoire pharmaceutique qui les commercialise et ne sont pas remboursés par l’Assurance-maladie dans cette indication, ndlr.)

Nos dernières recherches révèlent ce qui se passe ensuite, et cela donne à réfléchir. En moyenne, dans les essais cliniques, les personnes reprennent tout le poids qu’elles ont perdu dans les 18 mois suivant l’arrêt du traitement.

Ce qui est surprenant, c’est la rapidité avec laquelle cela se produit, près de quatre fois plus vite que la reprise de poids observée après l’arrêt de programmes de perte de poids basés sur l’alimentation et l’activité physique. Les améliorations en matière de santé disparaissent également puisque la tension artérielle, le taux de cholestérol et la glycémie reviennent à leurs niveaux initiaux.

Une personne en train de prendre sa tension artérielle
Après arrêt des médicaments antiobésité, la tension artérielle, qui était améliorée par les injections, revient à son niveau d’avant traitement.
ThamKC/Shutterstock

Ces constats revêtent une certaine importance, car ils suggèrent que ces médicaments pourraient devoir être pris sur le long terme, voire à vie, pour maintenir leurs effets bénéfiques. Certains prestataires privés proposent un accompagnement intensif en plus du traitement médicamenteux, et notre analyse a montré que cela aidait les patients à perdre en moyenne 4,6 kg supplémentaires. Cependant, rien ne prouve que l’accompagnement pendant ou après l’arrêt du traitement aide à ralentir la reprise de poids.

Ce rebond rapide soulève de sérieuses questions d’équité dans la prise en charge mais aussi interroge sur le fait de savoir si ces traitements valent le coût du point de vue du NHS (National Health System, qui correspond au système de santé britannique, ndlr). L’obésité est beaucoup plus fréquente chez les personnes vivant dans des zones défavorisées, qui sont également celles pour qui s’offrir un traitement privé est le plus difficile. L’accès au système de santé est essentiel pour garantir à tous des soins égaux, quel que soit les revenus.

Le NHS met progressivement ces médicaments à disposition, mais uniquement pour les personnes en situation d’obésité sévère (IMC supérieur à 40) et concernées par quatre pathologies liées à l’obésité, comme par exemple l’hypertension artérielle. Cela signifie que de nombreuses personnes qui pourraient en bénéficier en sont effectivement exclues, à moins qu’elles ne paient de leur poche.

Les coûts pourraient finir par baisser à mesure que les brevets existants expirent et que des versions orales (sous la forme de comprimés, ndlr) moins coûteuses sont développées. Mais cela pourrait prendre des années. En attendant, nous devons nous assurer que l’accès à ces médicaments par le NHS présente le meilleur coût rapporté à leur efficacité afin que davantage de personnes puissent en bénéficier.

Coûts versus bénéfices

Le National Institute for Health and Care Excellence (en français, Institut national pour la santé et l’excellence clinique), ou [NICE],(https://www.nice.org.uk/) a approuvé l’utilisation de ces médicaments dans le cadre du système de santé publique britannique (NHS) car il a évalué le rapport coût-efficacité selon ses critères habituels. Mais ces calculs partaient du principe que le traitement durerait deux ans et que le poids serait repris trois ans après l’arrêt du traitement. Nos données montrent que lorsque le traitement prend fin, la reprise de poids se produit étonnamment vite.

Nous avons également constaté que les améliorations observées au niveau de la tension artérielle et du cholestérol – qui sont les principales raisons pour lesquelles le NHS traite l’obésité – disparaissaient dans les mêmes délais. Cela suggère que le traitements devrait être poursuivi sur le long terme pour obtenir une perte de poids durable et garantir ses bienfaits pour la santé, ce qui modifie complètement le calcul des coûts.

Des recherches supplémentaires sont nécessaires pour évaluer le véritable rapport coût-efficacité de ces médicaments, en dehors des essais cliniques rigoureusement contrôlés, et pour les patients réellement traités.

Pour les personnes en situation d’obésité qui ne remplissent pas encore les critères stricts du NHS permettant de bénéficier de ces traitements, le rapport coût-efficacité pourrait ne pas être favorable dans le cadre d’une utilisation qui serait généralisée par le NHS tant que leur prix n’aura pas considérablement baissé.

Pour cette population, les programmes traditionnels de gestion du poids restent la base du traitement de l’obésité. Les programmes de remplacement total de l’alimentation, au cours desquels les personnes consomment des soupes et des boissons nutritives équilibrées à la place de repas normaux pendant huit à douze semaines, permettent d’obtenir une perte de poids similaire à celle obtenue avec des médicaments, pour un coût nettement inférieur.




À lire aussi :
Pourquoi l’obésité progresse-t-elle depuis trente ans ?


Les programmes de perte de poids en groupe, comme Weight Watchers et Slimming World, permettent d’obtenir des pertes de poids moyennes moins importantes, mais peuvent avoir un rapport coût-efficacité favorable et même permettre au NHS de réaliser des économies.

Ces nouveaux médicaments antiobésité ont montré à quel point les gens ont désespérément besoin d’aide pour perdre du poids. Mais l’évaluation du coût rapporté à l’efficacité reste floue. Rendre les programmes amaigrissants moins chers et accessibles à toute personne en situation d’obésité qui souhaite bénéficier d’un soutien permettrait un accès plus équitable aux traitements et améliorerait la santé publique, même si les résultats individuels risquent d’être moins spectaculaires que ceux obtenus avec un traitement médicamenteux pris sur le long terme.

The Conversation

Sam West a reçu des financements du « National Institute of Health Research » et participe à trois essais cliniques sur la perte de poids financés par la Fondation Novo Nordisk.

Dimitrios Koutoukidis a reçu des financements du « National Institute of Health Research ». Il est l’investigateur principal d’études financées par des fonds publics et menées par des chercheurs, dans lesquelles Oviva et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d’interventions visant à la perte de poids. Il a supervisé une bourse de doctorat iCASE dans laquelle Second Nature était un partenaire industriel.

Susan Jebb bénéficie d’une bourse de recherche du « National Institute of Health Research ». Elle est l’investigatrice principale d’un programme de recherche financé par la Fondation Novo Nordisk. Oviva, Second Nature et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d’interventions visant à la perte de poids dans le cadre de certaines études financées par le National Institute of Health Research.

ref. Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu – https://theconversation.com/nouveaux-medicaments-antiobesite-larret-des-injections-entraine-une-reprise-de-poids-beaucoup-plus-rapide-que-prevu-273032

CAN 2025 : les clés pour comprendre les controverses arbitrales et restaurer la confiance

Source: The Conversation – in French – By Pierrick Desfontaine, Enseignant et agrégé d’Education Physique et Sportive, Université de Toulon

La dernière Coupe d’Afrique des nations (CAN) organisée au Maroc restera dans les mémoires non seulement pour l’intensité sportive et l’engouement populaire qu’elle a suscités, mais aussi pour les controverses arbitrales. Des actions litigieuses, l’usage de l’assistance vidéo à l’arbitrage (VAR) et la diffusion massive de ralentis ont ravivé les soupçons de favoritisme. Cela pose la question de la confiance dans l’arbitrage africain à l’ère du numérique.

The Conversation Africa a interrogé Pierrick Desfontaine, spécialiste des enjeux sociotechniques dans l’arbitrage des sports collectifs. Il a mené des études sur la VAR et les arbitres d’élite qui l’utilisent en France, et a enquêté au plus près d’eux à Clairefontaine. Universitaire attaché au rôle d’entraîneur-éducateur et à une direction du jeu humaine, il propose ici des pistes pour améliorer l’arbitrage africain..

Pourquoi l’arbitrage a-t-il suscité autant de controverses lors de la dernière CAN ?

L’arbitrage n’a pas suscité plus ou moins de controverses que lors de toutes les compétitions de renom depuis que l’assistance vidéo à l’arbitrage (VAR) est installée. Les polémiques autour de l’arbitrage sont inhérentes aux émotions du football (amplifiées par les médias, les réseaux sociaux) et aux attitudes souvent impétueuses de ses acteurs. Elles sont renforcées par l’illusion que les technologies vont les régler : la non-résolution de ces erreurs d’arbitrage (parfois insolubles, même avec toutes les images possibles) renforce l’incompréhension des passionnés d’un sport total, mondial et excessif.

Ensuite, lorsque le pays organisateur est favori, les suspicions de favoritisme de l’arbitrage ou de corruption dans l’organisation émergent. Le Maroc, qui recevra une partie du Mondial 2030, a démontré des capacités sécuritaires et organisationnelles certaines. D’inévitables accrocs interviennent lorsqu’on coordonne de tels tournois. Cela est d’autant plus dommageable lorsque l’autre pays finaliste, le Sénégal, en est victime.

Rappelons pour finir que la CAN est le troisième tournoi international de football le plus suivi. Avec la progression du Maroc (demi-finaliste de la Coupe du monde en 2022, champion du monde U20), l’engouement sur le continent et dans les diasporas est considérable. Le niveau augmente sur le terrain, les staffs s’étoffent, des entraîneurs locaux émergent et l’arbitrage doit suivre ce rythme.




Read more:
CAN 2025 de football : pourquoi la CAF a sévi contre le Sénégal et le Maroc


Les arbitres ont bénéficié d’un niveau d’assistance technologique important. De quels outils s’agit-il exactement ?

Comme dans toutes les compétitions internationales, un faisceau d’outils était déployé sur chaque match, dispositif dont l’arbitre central est la clef de voûte. Ce dernier est équipé d’oreillettes le reliant à ses assistants et aux assistants vidéo situés dans une régie. Le protocole de la VAR peut être déclenché par ces derniers, dans quatre cas. Ce sont donc des acteurs littéralement hors jeu qui appellent le central pour qu’il aille consulter un poste vidéo situé en bordure de terrain (et dont la sécurité et le confort de lecture n’ont pas été satisfaisants lors de la finale notamment).

De plus, l’arbitre central a une montre qui vibre lorsque le ballon a entièrement franchi la ligne. C’est la technologie sur la ligne de but (GLT). Cette dernière est binaire, relativement fiable et compréhensible. En revanche, la complexité de l’arbitrage est exacerbée lors des protocoles VAR : ralentis, zooms, multiples visionnages viennent apporter une profusion de points de vue qui peut virer à la confusion. L’arbitre central de la finale de la CAN 2025, Jean-Jacques Ndala Ngambo, est confirmé, mais aucune expérience ne peut préparer au chaos qui a entouré le terrain.

Dans quelle mesure les ralentis télévisés, les réseaux sociaux et les commentaires en ligne influencent-ils la perception du public vis-à-vis des décisions arbitrales ?

Concernant la télévision,, elle est en partie impliquée dans la genèse de la VAR. La remise en question dépréciative de la fiabilité arbitrale occupe depuis les années 1980 des programmes télévisuels qui décryptent les actions litigieuses. Les réseaux sociaux rajoutent aujourd’hui une instantanéité dans l’utilisation parfois manipulatrice des images et des informations. L’utilisation de la VAR interroge la possibilité de concilier l’activité arbitrale, interprétative, subjective et basée sur les aléas, avec les promesses d’objectivité et de rationalité du numérique augmenté.




Read more:
CAN 2025 de football : les réussites et les ratés de l’édition marocaine


Cette question sur le public est l’occasion de mettre en avant les réflexions du sociologue du sport Julien Puech qui a vécu la CAN avec la population de Rabat. Il affirme que la perception de l’héritage de cette compétition n’aura de sens que si ses investissements en termes d’installations, de formation, d’arbitrage profitent à un large échantillon de Marocains et de Marocaines adeptes des football(s).

Julien Puech a pu observer un engouement, de nombreuses scènes d’échange. La veille des matchs, une foule cosmopolite se rendait à la Médina pour partager une ambiance festive. Les supporters s’amusaient des situations d’arbitrage ubuesques dans des vidéos partagées sur les réseaux sociaux. On peut supposer que ces flux informationnels répondent à une fonction essentielle de l’évènement sportif : prolonger le spectacle et nourrir les débats.

Plus encore, certains voient dans ces échanges continentaux une forme de «panafricanisme». Cette pensée a été envisagée par le militant anti-colonial martiniquais Frantz Fanon comme une solidarité entre les Africains et les personnes d’ascendance africaine pour lutter en faveur de l’indépendance du continent. Encore faut il, selon Fanon, que ces interactions ne soient pas entachées de nouveaux impérialismes.

Quelles réformes ou évolutions seraient nécessaires pour restaurer la confiance dans l’arbitrage lors des prochaines éditions de la CAN ?

Certes, l’arbitrage africain doit s’améliorer. Cela passe par de l’investissement humain, matériel et économique de la part de la CAF et de la FIFA, au service de la formation initiale et continue des officiels du continent. Mais les entraîneurs, joueurs et médias ont de larges progrès à faire dans la connaissance des règles et dans l’acceptation des décisions.

Le bon entraîneur doit toujours rester un éducateur. Il ne peut pas passer outre certains principes et se mettre à invectiver l’arbitre. Il y a des acteurs cruciaux comme le coach, le capitaine, le président qui doivent être irréprochables. Des fondamentaux devraient être recadrés : obliger les joueurs à serrer la main du corps arbitral, sanctionner plus durement les dérives physiques et verbales des dirigeants, promouvoir les comportements vertueux.

La noble attitude de Sadio Mané en finale montre bien que la voie du fair play peut cadrer un match à enjeux et que les grands joueurs africains peuvent se comporter avec une éthique exemplaire.

Du côté des évolutions arbitrales, plutôt que d’investir des sommes colossales dans des technologies, il faudrait utiliser le carton blanc à tous les niveaux (10 minutes d’expulsion en cas de comportement anti-sportif) et faire reculer de 10 mètres l’emplacement d’un coup de pied arrêté en cas de contestations.

Il s’agit de s’inspirer de sports qui innovent comme le rugby, exemplaire sur le respect des hommes en noir, ou le futsal pour le co-arbitrage. Si la CAF se débarrasse de certains problèmes endémiques, pourrait se démarquer en pérennisant ces règles dans ses compétitions, en misant sur les dimensions humaines dans l’arbitrage et devenir un leader mondial sur le sujet.




Read more:
CAN 2025 de football : quand l’image du sport influence le business et l’économie


Quels aspects de ces outils numériques ont bien fonctionné, selon vous, et lesquels ont montré leurs limites ?

J’ai insisté sur l’arbitrage et vous aurez compris que mes engagements d’enseignant et de chercheur, ainsi que l’analyse de presque dix saisons avec la VAR, m’ont conforté dans l’idée que ce sport aurait du se passer de ce gadget aliénant. Un football du droit à l’erreur, non coupé par de pénibles protocoles VAR, aurait pu être sanctuarisé. Je redoute la surenchère d’outils numériques (IA, robot, etc.) à moyen terme;

Prochainement, il y a la crainte que le Mondial américain de cet été ouvre la porte à des interruptions publicitaires, sous prétexte d’assistance vidéo. Par contre, les outils numériques renforçant la coordination des arbitres (oreillettes, drapeau BIP) sont à garder et à améliorer.

Il y a d’autres usages du numérique, davantage tournés vers la performance. Mon collègue Olivier Cavailles travaille depuis de nombreuses saisons en tant qu’entraîneur adjoint de Patrice Beaumelle (Maroc Espoir, Côte d’Ivoire, Mouloudia d’Alger, Angola). Il est chargé de l’analyse du jeu par la vidéo.

Présent sur cette CAN, Oliver Cavailles, dont le diplôme universitaire d’analyse de la performance est pionnier, m’a confirmé que le Maroc avait assuré des conditions de travail optimales (hardware et software) pour les analystes.

Les buts décisifs sur coups de pied arrêtés du Maroc ont montré le travail spécifique effectué, articulant vidéo et terrain, et ont donné tout son sens à cette néo-profession.

Tournés vers le progrès, les clubs et sélections du continent peuvent offrir ces nouvelles perspectives professionnelles (analyste vidéo, data scientist, sport scientist) à une jeunesse africaine entreprenante.

The Conversation

Pierrick Desfontaine does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. CAN 2025 : les clés pour comprendre les controverses arbitrales et restaurer la confiance – https://theconversation.com/can-2025-les-cles-pour-comprendre-les-controverses-arbitrales-et-restaurer-la-confiance-275105

Lissages capillaires : attention au risque d’insuffisance rénale aiguë

Source: The Conversation – France in French (3) – By Pauline Guillou, Chargée de projet scientifique, Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses)

L’Agence nationale de sécurité sanitaire (Anses) a conclu, en janvier 2025, à un lien fortement probable entre la présence d’acide glyoxylique, un ingrédient utilisé dans certains produits de lissages capillaires, et la survenue de cas d’insuffisances rénales aiguës. En attendant une évaluation des risques au niveau européen, cette substance ne fait l’objet d’aucun encadrement ni restriction d’usage. Les consommateurs sont appelés à ne pas utiliser ces produits afin de limiter les risques pour leur santé.


Après plusieurs signalements de cas d’insuffisance rénale aiguë à la suite de la réalisation de lissages capillaires en France et à l’étranger, des études scientifiques ont montré qu’une substance contenue dans ces produits, l’acide glyoxylique, pouvait être à l’origine de ces effets.

Dans un avis rendu en janvier 2025, l’Agence nationale de sécurité sanitaire, de l’alimentation, de l’environnement et du travail (Anses) a confirmé un lien fortement probable entre cet ingrédient et cet effet indésirable et préconise une évaluation des risques au niveau européen.

Quelles recommandations pour la sécurité des consommateurs ?

Pour l’heure, les autorités sanitaires conseillent d’éviter d’utiliser des produits capillaires contenant de l’acide glyoxylique et d’être vigilant en cas de symptômes inhabituels après un lissage.

En attendant d’éventuelles mesures réglementaires, l’Anses émet les recommandations suivantes :

  • Ne pas utiliser de produits de lissage capillaire contenant de l’acide glyoxylique ;
  • En cas de symptômes inhabituels pendant l’application ou dans les heures suivant la réalisation d’un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l’acide glyoxylique ou non, il est recommandé de consulter un médecin ou de contacter un centre antipoison en indiquant la réalisation d’un lissage capillaire ;
  • Pour contacter un centre antipoison : se rendre sur le site Internet Centres-antipoison.net ou appeler le (33)1 45 42 59 59 ;
  • En cas de symptômes inhabituels pendant l’application ou dans les heures suivant la réalisation d’un lissage capillaire (douleurs lombaires, fatigue, nausées…), que le produit contienne de l’acide glyoxylique ou non, il est également recommandé de déclarer l’incident sur le portail de signalement des évènements sanitaires indésirables du ministère en charge de la santé : Signalement.social-sante.gouv.fr/

À noter que la vigilance doit être de mise pour des lissages capillaires réalisés chez le coiffeur, en salon ou à domicile, mais aussi directement par le consommateur. Les produits capillaires lissants susceptibles de contenir de l’acide glyoxylique (même si leur étiquetage ne le précise pas) sont en effet disponibles dans le commerce et peuvent être achetés directement par le grand public. Ces lissages sont parfois – mais pas systématiquement – présentés sous certaines dénominations (« lissages brésiliens », « lissages indiens », etc.).

Une première alerte auprès du dispositif de cosmétovigilance en France

En janvier 2024, l’Anses, nouvellement en charge de la cosmétovigilance en France, a reçu de la part d’un néphrologue le signalement d’un cas d’insuffisance rénale aiguë supposée en lien avec l’utilisation d’un produit de lissage capillaire. Ce signalement concernait une femme ayant connu trois épisodes d’insuffisance rénale aiguë en trois ans qui se sont déclarés systématiquement quelques heures après la réalisation d’un lissage capillaire. Le seul événement commun aux trois épisodes était en effet l’application d’un soin capillaire le jour du début des symptômes (La cosmétovigilance consiste à assurer une surveillance et, le cas échéant, à identifier des effets indésirables chez l’humain liés à des produits d’hygiène ou de beauté que l’on classe, selon la réglementation, dans la catégorie dite des « cosmétiques », ndlr.)

Lors des trois épisodes, les premiers symptômes étaient une sensation de brûlure du cuir chevelu durant toute la durée de l’application, puis l’apparition d’ulcérations du cuir chevelu. Une douleur lombaire apparaissait dans l’heure suivant le soin, suivie de nausées et d’asthénie le jour même. Les produits utilisés lors des deux premiers soins lissants n’ont pu être identifiés. Le troisième produit, lui, était connu.

Des effets indésirables graves qui suscitent l’attention

Les néphrologues ayant pris en charge cette patiente ont mené des recherches afin d’identifier l’origine de cet effet. Ils ont ainsi établi un lien de causalité entre l’insuffisance rénale aiguë et une substance contenue dans le produit utilisé lors du troisième soin, l’acide glyoxylique. Ces conclusions résultent, d’une part, de l’observation de la toxicité rénale de l’acide glyoxylique chez la souris et, d’autre part, de l’existence de cas humains similaires identifiés dans plusieurs pays, notamment en Israël.

L’acide glyoxylique est utilisé dans les produits de lissage capillaire en remplacement du formaldéhyde. Le formaldéhyde était utilisé dans les produits cosmétiques et notamment pour les lissages capillaires, mais a été interdit en 2019 du fait de son classement comme substance cancérogène en 2014 dans le cadre du règlement européen CLP. L’industrie a alors développé des alternatives, dont l’acide glyoxylique.

Au regard de ces éléments, l’Anses s’est autosaisie pour dresser un état des lieux des connaissances sur la toxicité rénale de l’acide glyoxylique présent dans les produits lissants et déterminer si un encadrement des conditions d’utilisation de cette substance était nécessaire.

En août 2024, deux nouveaux signalements d’insuffisance rénale aiguë chez des personnes s’étant fait lisser les cheveux ont été adressés à l’Anses. Ces signalements concernaient des femmes, ayant présenté des symptômes tels que des maux de tête, des douleurs lombaires, des nausées, de la fatigue, ou encore une soif excessive dans les heures suivant le soin. Leurs analyses de sang ont mis en évidence une augmentation significative des taux de créatinine, un marqueur biologique de l’insuffisance rénale. Aucune autre cause explicative n’a pu être identifiée. L’évolution de leur état de santé a été favorable, après une hydratation, voire une hospitalisation de plusieurs jours pour l’une d’elles.

Appliqué sur le cuir chevelu, l’acide glyoxylique peut pénétrer dans l’organisme

L’analyse de la littérature scientifique menée par l’Anses a permis d’identifier des données à la fois expérimentales et cliniques établissant un lien entre l’utilisation de produits lissants pouvant contenir de l’acide glyoxylique et la survenue d’une insuffisance rénale aiguë dans les heures qui suivent.

Concernant les 26 cas similaires survenus entre 2019 et 2022 en Israël, pour certains d’entre eux, des biopsies rénales ont révélé la présence des dépôts de cristaux d’oxalate de calcium. Ces derniers peuvent constituer des calculs rénaux qui altèrent le fonctionnement des reins de façon parfois sévère. Parmi ces 26 cas, 11 patientes ont été exposées à des produits de lissage à base de kératine affichant, dans leur composition, des « dérivés de l’acide glycolique ». Pour les autres, le type de produit lissant n’a pas été identifié.

À également été recensé en Suisse, et présenté dans une publication datant de 2024, le cas d’une femme d’une quarantaine d’années ayant développé une insuffisance rénale aiguë après un lissage des cheveux. La biopsie rénale avait également montré des dépôts de cristaux d’oxalate de calcium. La composition du produit utilisé reste cependant inconnue.

Par ailleurs, des tests expérimentaux menés sur des rongeurs ont confirmé le rôle néphrotoxique de l’acide glyoxylique lors d’une exposition par voie cutanée. Enfin, la formation de cristaux d’oxalate dans l’organisme à partir de l’acide glyoxylique a également été démontrée.

L’ensemble de ces données suggèrent donc que l’acide glyoxylique, lorsqu’il est appliqué sur le cuir chevelu, peut pénétrer dans l’organisme et se transformer en oxalate de calcium.

Une substance dont l’utilisation n’est ni encadrée ni limitée

À la suite de l’analyse de l’ensemble des données existantes, l’Anses a donc publié en janvier 2025 un avis qui conclut au rôle causal fortement probable de l’acide glyoxylique dans la survenue d’insuffisances rénales aiguës observées après l’application de produits lissants.

À ce jour, cette substance ne fait cependant pas l’objet de dispositions spécifiques dans le cadre du règlement cosmétique (en particulier selon les annexes II et III, qui correspondent respectivement aux substances interdites et aux substances faisant l’objet de restrictions). Son utilisation n’est donc ni encadrée ni limitée.

Comme l’interdiction ou la restriction d’une substance cosmétique ne peut se faire au niveau national, l’Anses recommande donc de réaliser une évaluation des risques au niveau européen afin de statuer sur la sécurité de l’utilisation de cette substance dans les produits de soins capillaires et, par voie de conséquence, sur la nécessité de telles mesures réglementaires.

De plus, l’Anses préconise qu’une attention particulière soit portée aux substances (présentes dans les produits capillaires et autres produits cosmétiques) pouvant se métaboliser en acide glyoxylique.

En mars 2025, l’Anses a présenté ses travaux devant le groupe de travail sur les cosmétiques organisé par la Commission européenne réunissant les États membres et les parties prenantes. À la suite de quoi, un appel à données a été lancé par la Commission européenne dans le but de compiler toutes les informations scientifiques disponibles afin d’évaluer la sécurité de cette substance dans les produits cosmétiques. Cet appel à données est ouvert jusqu’au 8 avril 2026.

Se mobiliser pour protéger le public en Europe et dans l’Union européenne

Il est à noter que, depuis octobre 2024, 15 nouveaux cas d’insuffisance rénale aiguë ont été signalés en France. Ces nouveaux cas ont, par ailleurs, montré que l’acide glyoxylique pouvait être présent dans les produits même si ce n’était pas mentionné sur l’étiquette.

En effet, parmi les six produits pour lesquels il n’était pas fait mention de la substance dans la composition, l’analyse de trois d’entre eux a confirmé qu’ils en contenaient. Deux nouveaux cas ont également été publiés dans la littérature scientifique en Tunisie et en Algérie.

Cet exemple démontre par ailleurs l’importance de signaler tout effet indésirable lié à ces produits et aux produits cosmétiques sur le portail de signalement des événements indésirables du ministère en charge de la santé. Ces signalements sont essentiels afin de mieux comprendre les risques et protéger les consommateurs.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Lissages capillaires : attention au risque d’insuffisance rénale aiguë – https://theconversation.com/lissages-capillaires-attention-au-risque-dinsuffisance-renale-aigue-275738

Aliments : le changement climatique modifie la biodisponibilité des (micro)nutriments

Source: The Conversation – France in French (3) – By Emmanuelle Reboul, Directrice de recherche, Inrae; Inserm; Aix-Marseille Université (AMU)

Les transformations profondes dues au changement climatique en cours affectent directement les systèmes de production alimentaire. Outre les problèmes de rendement, la biodisponibilité des nutriments présents dans les aliments est également modifiée, ce qui pourrait avoir des conséquences sur la nutrition humaine.


Parmi les impacts les plus marquants du changement climatique figurent la diminution des rendements agricoles due à des événements climatiques extrêmes tels que les sécheresses, les inondations ou l’exposition à l’ozone troposphérique.

De ce fait, l’accès aux aliments de base (blé, maïs, riz) pourrait devenir plus difficile, particulièrement pour les populations les plus vulnérables d’un point de vue socio-économique.

Favorisée par des températures plus élevées, la prolifération de bactéries et de champignons, qui accroît les risques de maladies d’origine alimentaire, pourrait encore aggraver cette situation.

Mais ce n’est pas tout, car au-delà de ces questions de sécurité alimentaire se pose un autre problème, moins visible : celui de la biodisponibilité des nutriments présents dans les aliments. Ce paramètre, qui désigne la fraction d’un composé alimentaire absorbée par l’organisme et acheminée vers les tissus après digestion, est également perturbé par ces bouleversements.

Pour la première fois, nous avons analysé les liens, à la fois directs et indirects, entre le changement climatique et la biodisponibilité de composés alimentaires clés : protéines, micronutriments liposolubles, minéraux, composés phénoliques et glucosinolates. Voici ce que nous a appris l’analyse de la littérature.

Le changement climatique menace les approvisionnements en protéines

Le changement climatique remet en question les sources traditionnelles de protéines animales (viande rouge notamment, dont il faudrait réduire la consommation pour améliorer la durabilité de notre alimentation, mais aussi certaines sources de protéines végétales (blé, maïs, riz) au profit de sources plus résilientes au changement climatique (millet, sorgho).

Cependant, il faut souligner que la qualité, la digestibilité et la biodisponibilité des protéines végétales peuvent être inférieures à celles des protéines animales. Ceci s’explique notamment par un manque en certains acides aminés essentiels comme la lysine, ou la présence de composés dits « antinutritionnels » tels que les phytates ou les tannins, qui interfèrent avec les enzymes durant la digestion.

En outre, l’augmentation des concentrations de CO₂ pourrait réduire la teneur en protéines des végétaux, jusqu’à 15 % pour le blé, le riz et l’orge, en faveur d’une production accrue de glucides. En revanche, les pics de chaleurs pourraient augmenter la teneur en protéines.

Micronutriments liposolubles : une vulnérabilité accrue

Les micronutriments liposolubles, comme les vitamines A, D, E, K, sont des molécules indispensables pour se maintenir en bonne santé. Or, les sources naturelles de nutriments vont probablement subir dans les années à venir les effets du changement climatique. Ce dernier menace notamment déjà certaines populations de poissons gras riches en vitamine D.

Dans le même temps, la vitamine D présente dans la viande, le lait ou les œufs pourrait être amenée à augmenter selon les régions, car sa teneur dépend de l’exposition des animaux au soleil.

Autre exemple : le changement climatique pourrait induire une baisse drastique des populations de pollinisateurs, ce qui impacterait directement la production de fruits et légumes riches en caroténoïdes provitaminiques A. Actuellement, environ 70 % de la vitamine A des aliments vient de cultures dépendantes de l’action de pollinisateurs.

Bien que l’exposition aux UV stimule la synthèse de caroténoïdes dans certaines plantes, leur teneur diminue sous des taux élevés de CO₂. Sécheresse et chaleur augmentent également les teneurs en phytates et en fibres, qui réduisent la biodisponibilité des micronutriments liposolubles en interférant avec le fonctionnement des enzymes digestives ou en ralentissant la digestion.

Les insectes comestibles pourraient offrir une solution innovante pour recycler ces composés dans la chaîne alimentaire.

Les minéraux : une disponibilité en déclin

Les carences en minéraux essentiels, tels que le fer, le zinc et le calcium, devraient s’aggraver d’ici 2050, avec une réduction estimée de 14 à 20 % de leur disponibilité globale.

Les cultures céréalières, les légumineuses, les poissons et les fruits de mer, sources majeures de minéraux, sont particulièrement vulnérables aux stress climatiques. Sous l’effet d’un CO₂ élevé, les teneurs en fer, zinc, calcium et magnésium diminuent, pouvant atteindre jusqu’à 30 % pour le fer dans les légumes-feuilles.

Cependant, l’association du CO₂ et de températures plus chaudes peut atténuer cette baisse pour certains minéraux, comme le zinc dans le blé. Comme pour les micronutriments liposolubles, la biodisponibilité des minéraux est directement affectée par la présence de phytates et de fibres.

Les composés phénoliques et glucosinolates : des réponses contrastées

Les polyphénols, abondants dans les fruits, légumes, céréales et légumineuses, jouent un rôle clé dans la prévention des maladies chroniques grâce à leurs propriétés antioxydantes et anti-inflammatoires.

Les glucosinolates, présents dans les crucifères comme le brocoli et le chou, sont quant à eux reconnus pour leurs effets anticancéreux.

Les réponses des plantes aux stress climatiques sont variables : sécheresse et chaleur peuvent soit augmenter, soit réduire les teneurs en polyphénols et en glucosinolates, selon les espèces. Leur biodisponibilité dépend également de la présence de composés antinutritionnels et de fibres.

Pour atténuer les impacts délétères du changement climatique sur la biodisponibilité des (micro)nutriments et des bioactifs d’intérêt, plusieurs pistes sont envisagées.

Enrichir et préserver les micronutriments

L’enrichissement des cultures en micronutriments, par le biais de la biofortification constitue une stratégie clé pour lutter contre les carences nutritionnelles.

Par ailleurs, l’optimisation des procédés de transformation alimentaire (haute pressionLe traitement à haute pression est une technique non thermique de conservation des aliments qui tue les micro-organismes susceptibles de provoquer des maladies ou d’altérer les aliments.
Basé sur l’application d’une pression très élevée pendant un certain temps, il a des effets minimes sur le goût, la texture, l’aspect ou la valeur nutritive.
, champs électriques pulsésL’emploi de champs électriques pulsés de haute intensité est un processus non thermique utilisé pour traiter différents types de nourriture.
Il est utilisé depuis des décennies, notamment pour pasteuriser des aliments liquides (jus de fruits, lait, œufs liquides, smoothies); extraire du jus, de l’eau et des composés bioactifs des plantes; déshydrater des tissus.
, microfluidisationApparue dans les années 80, la microfluidisation est une technique qui permet la formation de microémulsions, améliorant notamment la stabilité d’un produit.) permet de préserver la biodisponibilité des nutriments, notamment en éliminant les composés antinutritionnels, tout ayant un impact environnemental réduit par rapport aux procédés traditionnels.

Enfin, des méthodes traditionnelles comme la germination et la fermentation permettent aussi de maintenir la biodisponibilité des nutriments (comme dans le cas du quinoa).

Diversifier les sources

Il est essentiel non seulement de promouvoir des cultures résilientes, mais aussi de développer des sources de protéines alternatives.

En ce qui concerne les protéines d’origine végétale, les scientifiques travaillent à identifier des céréales qui sont non seulement résistantes aux stress climatiques, mais qui présentent également des profils nutritionnels intéressants.
C’est par exemple le cas du millet et du sorgho, cultivés en Afrique et en Asie, ainsi que des légumineuses comme les pois chiches.

Soulignons que la complémentarité entre les protéines de céréales et de légumineuses, dans un ratio de 2 :1, reste essentielle pour équilibrer les apports en acides aminés essentiels et optimiser la qualité protéique des régimes végétaux. L’emploi des protéines de pomme de terre est également envisagé.

Ces céréales pourraient remplacer les céréales actuelles dans leurs principaux usages (farines pour le pain, les pâtes, etc.), et pour circonvenir les problèmes techniques ou d’acceptation par les consommateurs, il pourrait être envisageable de ne remplacer que partiellement la céréale utilisée traditionnellement, ou d’adapter les recettes.

Par ailleurs, les protéines alternatives, comme celles issues d’insectes, de microalgues (spiruline, chlorella) ou d’organismes unicellulaires (levures), suscitent un intérêt croissant. Elles offrent un double avantage : elles présentent des profils nutritionnels favorables et leur empreinte écologique est faible.

En définitive, seule une approche globale, combinant innovation agricole, transformation durable et politiques publiques adaptées, permettra d’adapter les systèmes alimentaires aux défis posés par le changement climatique.

The Conversation

Emmanuelle Reboul ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Aliments : le changement climatique modifie la biodisponibilité des (micro)nutriments – https://theconversation.com/aliments-le-changement-climatique-modifie-la-biodisponibilite-des-micro-nutriments-273991

Moins de déchets mais un tri encore imparfait : plongée dans les poubelles des Français

Source: The Conversation – France (in French) – By Romuald Caumont, Chef adjoint du service bâtiment de l’Ademe, Ademe (Agence de la transition écologique)

Que contiennent vraiment nos poubelles et comment leur composition a-t-elle évolué au cours des dernières années ? Une vaste étude de l’Ademe révèle les progrès du tri en France : la poubelle grise s’allège et les nouvelles filières de collecte s’inscrivent peu à peu dans les habitudes. Pourtant, un peu moins de 70 % du contenu de nos poubelles grises ne devrait pas s’y trouver : des axes de progression restent donc à développer.


Nos déchets constituent, sans doute, l’objet le plus tangible qui nous lie aux enjeux écologiques. Nous utilisons une poubelle plusieurs fois par jour et c’est, pour beaucoup d’entre nous, le premier sujet par lequel nous avons été sensibilisés à l’environnement. Au cours des dernières décennies, le tri et ses évolutions se sont peu à peu inscrits dans nos habitudes, même s’il reste une marge de progression pour qu’il soit parfaitement mis en œuvre.

Afin de comprendre comment la composition des déchets a évolué dans le temps, l’Agence de la transition écologique (Ademe) a fait l’exercice de se plonger dans le contenu de nos poubelles. L’enjeu était de connaître leur composition détaillée dans un certain nombre de communes, selon des protocoles et des plans d’échantillonnage bien précis afin de s’assurer que ces chiffres soient représentatifs. Ces résultats, publiés fin 2025, ont porté sur les chiffres de 2024.

De telles études avaient déjà été menées par le passé : en 1993, en 2007 puis en 2017. L’objectif, désormais, est d’annualiser cette enquête afin de mieux évaluer l’efficacité des politiques publiques de gestion des déchets. Une démarche qui permet d’identifier les gisements de déchets d’emballages plastiques, autrement dit les potentiels de valorisation à développer. En se penchant sur chaque type de déchets, ce premier travail livre déjà un certain nombre d’enseignements.

La poubelle grise au régime : 44 % moins lourde qu’il y a trente ans

Débutons par la fameuse poubelle grise vouée aux ordures ménagères résiduelles. Entre 1993 et 2024, son poids moyen a diminué de 44 %, passant de 396 kg à 223 kg. Un résultat encourageant, qui s’explique en partie par l’accroissement au cours de cette période de la mise en place du tri, qui n’était pas généralisé il y a trente ans.

Depuis 2017 en particulier, des progrès notables ont eu lieu : 30 kg en moins, là aussi, sans doute, grâce à l’amélioration du tri à la source et la mise en place de la collecte des biodéchets, qui ont chuté de 10 % sur cette période dans les poubelles grises.


Ademe

Ce bilan appelle toutefois quelques nuances. Certes, le poids de nos poubelles grises diminue, mais, aujourd’hui encore, 69 % des déchets présents dans les poubelles grises ne devraient pas s’y trouver. Une proportion qui n’évolue pas. Leur composition se répartit comme suit :

  • un tiers correspond à des biodéchets ;

  • près d’un autre tiers, à des emballages et des papiers destinés à la poubelle jaune ;

  • 5 %, à du verre ;

  • et 6 %, à des déchets qui devraient faire l’objet d’autres collectes, en particulier textiles et électroniques.

Par ailleurs, si la part des biodéchets et certains emballages et papiers recyclables ont diminué (respectivement, de 10 et 17 % en moins), la quantité de textiles sanitaires (couches, lingettes, essuie-tout, etc.), en revanche, connaît une forte hausse.




À lire aussi :
L’histoire peu connue du compost en France : de la chasse à l’engrais à la chasse au déchet


Dans les poubelles jaunes : moins de papiers mais plus d’erreurs

Du côté des déchets de la poubelle jaune, vouée aux emballages et au papier, la tendance est inverse. Leur poids, qui s’élève aujourd’hui à 52,8 kg par an et par habitant, a légèrement augmenté. Ils représentaient 49,4 kg en 2017, contre 45,8 en 2007. Cette hausse de 15 % en plus de quinze ans est logique, le tri étant depuis entré dans les mœurs et ses consignes ayant été élargies. Ce chiffre est une bonne nouvelle : les Français trient davantage.

Toutefois, on observe en même temps une augmentation des erreurs de tri, avec une part de déchets non conformes en progression depuis 2017. Ainsi, en 2024, ces erreurs concernent 19 % des déchets qui se retrouvent dans les bacs jaunes, contre 12,4 % en 2017. Dans la grande majorité, elles concernent des déchets résiduels qui devraient être dans la poubelle grise.

On y observe par ailleurs une forte diminution des papiers entre 2017 et 2024, probablement liée à la numérisation des usages, et au contraire une hausse des cartons – sans doute causée par la progression des livraisons du fait du commerce en ligne – et des emballages plastiques. Cela se rattache à l’extension des consignes de tri en 2023 à l’ensemble des emballages plastiques, qui semble produire des effets.

Une appropriation progressive du tri des biodéchets

Depuis la généralisation du tri à la source des biodéchets au 1er janvier 2024, les collectivités territoriales se sont massivement mobilisées. Aujourd’hui, la quasi-totalité d’entre elles propose une solution de proximité (compostage individuel ou partagé) tandis qu’environ 30 % ont également déployé un service de collecte spécifique.

En moyenne, 13 % des déchets déposés dans les bacs de biodéchets sont des erreurs de tri. Le contenu de ces bacs se compose majoritairement de biodéchets alimentaires (69 %), dont 12,5 % relèvent encore du gaspillage alimentaire, et de déchets verts (5,5 %).

Le bilan est donc plutôt positif. Des disparités territoriales subsistent toutefois, notamment entre les collectivités ayant installé une collecte séparée et celles qui privilégient uniquement des solutions de compostage de proximité. Les études annuelles permettront de voir à quelle vitesse la pratique se généralise, à la fois par la mise en place de solutions par les communes et l’appropriation par les citoyens.

Un dernier aspect pointé par l’étude concerne les déchetteries, où la composition des bennes de tout-venant présente une grande diversité, avec 75 % de déchets qui devraient être traités en amont par une filière responsabilité élargie du producteur, dite filière REP, particulière – notamment pour les produits de matériaux de construction du bâtiment, qui occupent un quart des bennes. Cela témoigne d’une forte marge de manœuvre existante sur la structuration des filières REP, et sans doute d’une amélioration de l’information vis-à-vis des usagers.

De manière générale, l’étude menée ici se concentre sur une caractérisation des déchets ménagers et apporte des résultats encourageants sur l’impact des politiques publiques. Elle mériterait toutefois d’être complétée par une approche comportementale auprès des ménages afin de mieux comprendre les freins et les obstacles qui expliquent, notamment, que 69 % du contenu des poubelles grises n’y ait pas sa place.

The Conversation

Romuald Caumont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Moins de déchets mais un tri encore imparfait : plongée dans les poubelles des Français – https://theconversation.com/moins-de-dechets-mais-un-tri-encore-imparfait-plongee-dans-les-poubelles-des-francais-275683

« Nudges », sciences comportementales… Faut-il en finir avec les incitations à mieux gérer nos déchets ?

Source: The Conversation – France (in French) – By Service Environnement, The Conversation France

Pour réduire la quantité de déchets, les politiques publiques misent de plus en plus sur les sciences comportementales, par exemple les « nudges ». Au risque d’invisibiliser les déterminants matériels, sociaux et politiques de la production des déchets.


Depuis une dizaine d’années, les collectivités territoriales, les agences nationales et une partie du secteur privé se sont engouffrés dans l’application des sciences comportementales à la réduction des déchets. L’idée ? Si les individus trient mal, les jettent au mauvais endroit ou en produisent trop, c’est qu’ils manquent d’information et de motivation. Il suffirait de mener des campagnes bien ciblées pour les rendre plus vertueux.

Ce récit est séduisant, car il permet d’agir vite, à moindre coût et sans remettre en cause les logiques structurelles qui génèrent les déchets. Il est pourtant réducteur, dans la mesure où il méconnaît les rapports sociaux et les inégalités. Il ramène la question politique des déchets à l’échelle individuelle : les habitants sont vus comme des acteurs indisciplinés mais rationnalisables à coup de micro-incitations.

Logique de salubrité contre récupération informelle

Sur le terrain, mes observations ethnographiques montrent que ce sujet est davantage structuré par des dispositifs sociotechniques, économiques, et organisationnels que par les intentions individuelles. Dans de nombreux quartiers, le tri est entravé par des infrastructures inadaptées : par exemple, vide-ordures encore en usage qui empêchent toute séparation des flux à la source, bacs trop éloignés ou difficilement d’accès…

Dans les quartiers populaires, des pratiques de circulation d’objets – don, récupération informelle… – se trouvent également placées sous un régime de suspicions et de sanctions. Les acteurs institutionnels chargés de la gestion des déchets valorisent avant tout une logique de salubrité et se concentrent sur l’entretien visuel de la voie publique. Le déchet y est traité comme un rebut dont il faut se débarrasser au plus vite, et non comme une ressource susceptible d’être valorisée.

Les déchets deviennent alors des marqueurs sociaux. Ils servent à requalifier des groupes, à leur attribuer des comportements naturalisés, à désigner des « responsabilités » qui coïncident souvent avec des groupes ethno-sociaux déjà stigmatisés. Les plus précaires sont ainsi les premiers visés par les dispositifs correctifs.

Un cadrage qui élude des problèmes réels

Dans ce contexte, le recours aux sciences comportementales détourne l’attention des problèmes concrets qui structurent la gestion des déchets au quotidien : infrastructures défaillantes ou mal pensées, conditions de travail éprouvantes (par exemple pour les éboueurs ou les gardiens d’immeubles), conflits entre acteurs (par exemple, entre bailleurs, métropole, prestataires…). Au lieu de rendre ces dysfonctionnements visibles, l’analyse se concentre sur le dernier maillon de la chaîne : l’habitant.

Au-delà de l’argument du coût, les institutions plébiscitent cette approche car elle évite de rouvrir le dossier, plus conflictuel, de la réduction à la source (régulation de la production par exemple) ou de la reconfiguration des infrastructures. Elle s’accorde enfin avec une conception néolibérale de l’action publique où chacun est sommé d’être responsable de son empreinte. Or, si les sciences comportementales peuvent livrer des outils ponctuels, elles ne constituent ni une théorie sociale ni une politique publique durable.


Cet article est la version courte de celui écrit par Camille Dormoy (Le Mans Université/Université Picardie Jules Verne), initialement publié en janvier 2026.

The Conversation

Service Environnement ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Nudges », sciences comportementales… Faut-il en finir avec les incitations à mieux gérer nos déchets ? – https://theconversation.com/nudges-sciences-comportementales-faut-il-en-finir-avec-les-incitations-a-mieux-gerer-nos-dechets-276702