« Cinquante nuances de blanc », ce que le défilé Dolce & Gabbana révèle vraiment des représentations dans la mode

Source: The Conversation – France (in French) – By Aurore Bardey, Professeur Associé en Marketing, Burgundy School of Business

Il faut prendre ce que dit la publicité au sérieux. Surtout quand il s’agit de mode et de diversité. La récente polémique autour des « 50 nuances de blanc » du défilé d’une maison italienne n’est pas qu’une affaire de vêtements. Plus fondamentalement, elle dit aussi comment nous nous représentons collectivement. Et la place donnée à chacun.


En janvier 2026, le défilé masculin de Dolce & Gabbana à Milan a déclenché une polémique internationale. Sur les réseaux sociaux et dans les journaux, internautes et journalistes ont dénoncé un casting quasi exclusivement blanc, ironiquement rebaptisé « 50 nuances de blanc » (en référence à l’expression anglaise « 50 shades of white »).

Dans une industrie qui se veut le miroir de notre société, comment expliquer un tel paradoxe ? Et surtout, que révèle-t-il des conséquences psychologiques de l’absence de représentation de tous ces consommateurs ?

Ce que vend la publicité

La publicité ne vend pas seulement des produits (en l’espèce des vêtements) ; elle raconte une histoire. Elle dit à quoi ressemble le succès, le désir, la normalité. Elle dessine, souvent sans le dire, les contours de ce qui serait « « le beau ». De Marilyn Monroe à Margot Robbie, d’Alain Delon à Pedro Pascal, chaque époque a ses icônes. Des visages, des silhouettes, des corps érigés en modèles. Mais ces figures ne surgissent pas par hasard : elles reflètent les normes et les rapports de force d’une société donnée.

L’idéal de beauté n’est ni universel ni figé. Il est construit. Il évolue au fil du temps, sous l’influence de contextes culturels, historiques et sociaux. Aujourd’hui, dans les sociétés occidentales, la minceur, la jeunesse, la blancheur de la peau, restent largement valorisées. Les médias de mode jouent un rôle déterminant dans cette construction, en mettant en avant certaines morphologies, certaines carnations, certains types de cheveux ou de traits comme étant la norme désirable.

En étant continuellement reproduites, ces représentations partielles, fondées sur un idéal de beauté restreint et excluant, s’installent progressivement comme une norme perçue comme « normale ». Pourtant, elles ont un coût psychologique. Des recherches académiques montrent que l’exposition constante à des corps idéalisés fragilise l’image de soi, favorise l’insatisfaction corporelle et peut influencer les comportements alimentaires et leurs dérèglements.

Le coût de la non-reconnaissance

Ne pas se reconnaître dans ces représentations peut générer un sentiment d’écart, de manque, voire d’infériorité. Les réseaux sociaux amplifient encore cette dynamique. Ils transforment la comparaison en réflexe quotidien, multipliant les occasions de se mesurer à des images retouchées ou mises en scène. Et lorsque certains visages, certaines couleurs de peau ou certaines textures de cheveux sont absents, ce silence visuel envoie un message puissant. Les sociologues parlent d’annihilation symbolique : ne pas être représenté, c’est être rendu invisible.




À lire aussi :
Mode : les consommateurs seniors encore loin de l’inclusion


Dans ce contexte, un défilé composé presque exclusivement de mannequins blancs ne relève pas seulement d’une direction artistique. Il s’inscrit dans une histoire longue de sous-représentation des minorités dans la mode. Et ce n’est pas uniquement une question d’image.

Visibilité ne signifie pas inclusion

Ces thèmes sont au cœur de nos travaux de recherche récemment publiés. Ces travaux se sont consacrés à la manière dont les consommateurs noirs perçoivent leur représentation dans la publicité de mode. Notre étude qualitative menée auprès de 19 consommateurs noirs en France et au Royaume-Uni montre un point central : la question n’est pas seulement qui apparaît dans la publicité, mais comment et pourquoi.

Les participants reconnaissent que la visibilité des personnes noires a augmenté ces dernières années. Pourtant, ils décrivent souvent cette présence comme superficielle :

  • recours à des célébrités pour « cocher une case » ;

  • modèles noirs relégués à des rôles secondaires ;

  • préférence pour des profils métissés ou conformes aux standards eurocentriques (personne noire avec des cheveux blonds et lisses par exemple).

Ce phénomène a été conceptualisé sous le terme de diversity-washing : une inclusion performative où des corps racisés servent de capital symbolique sans transformation structurelle. Cette logique peut être comprise à la lumière de la théorie de dominance sociale : même lorsque la diversité est affichée, les hiérarchies ethniques peuvent être reproduites par des formes d’inclusion conditionnelle.

De l’inclusion superficielle à l’exclusion visible

Le cas des « 50 nuances de blanc » représente l’autre versant du problème, en passant de l’inclusion superficielle à l’exclusion visible. Dans les deux cas, le message implicite est similaire : la « blanchité » reste la norme centrale.

Notre étude révèle des impacts profonds sur l’identité. Plusieurs participants décrivent avoir intériorisé des normes eurocentriques : ils évoquent le désir de lisser leurs cheveux, d’éclaircir leur peau, un sentiment d’infériorité ou de non-appartenance. À l’inverse, lorsque la représentation est perçue comme authentique, elle produit des effets positifs : affirmation identitaire, sentiment de reconnaissance, engagement accru envers la marque.

Au travers de nos travaux de recherche, nous proposons ainsi le concept de congruence conditionnelle : l’identification à un mannequin ou à une marque ne dépend pas uniquement de la similarité ethnique, mais de la perception d’authenticité, de respect et de cohérence entre le discours et les pratiques. Autrement dit, les consommateurs ne se contentent pas de voir : ils interprètent. Ils évaluent l’intention, la narration, la sincérité.

Un symptôme structurel

L’« affaire » Dolce & Gabbana ne doit pas être analysée comme un simple faux pas créatif. Elle révèle une tension structurelle entre :

  • une industrie mondialisée mais centrée sur des standards occidentaux ;

  • une communication inclusive, mais des pratiques parfois homogènes ;

  • une prise de conscience sociale accrue, notamment parmi les membres de la génération Z et les millennials.

Dans notre étude, les participants insistent sur un point : la représentation ne peut être réduite à l’image finale. Elle suppose une transformation du côté des coulisses avec une diversité des équipes créatives, des directions artistiques, des comités décisionnels. Sans cela, la diversité reste esthétique. Et son absence, comme dans ces « 50 nuances de blanc », devient un révélateur brutal des angles morts de l’industrie de la mode.

Arte 2025.

Une industrie vraiment inclusive

À partir de nos résultats, nous avons proposé un guide pratique pour une publicité de mode véritablement inclusive. Parmi les principes clés :

  • représenter des identités multidimensionnelles, non stéréotypées ;

  • intégrer la diversité intragroupe (teintes de peau, morphologies, styles) ;

  • garantir une cohérence entre message public et pratiques organisationnelles ;

  • associer les communautés concernées au processus créatif ;

  • inscrire l’inclusion dans une stratégie de long terme, et non dans une campagne ponctuelle.

Le débat suscité par les « 50 nuances de blanc » rappelle que la mode façonne l’imaginaire collectif. Elle dit qui est désirable, qui est central, qui est périphérique.

La question n’est donc pas seulement esthétique ou commerciale. Elle est profondément psychologique et éthique : quelles identités juge-t-on dignes d’être vues ? Et qui décide de cette visibilité ?

The Conversation

Aurore Bardey ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. « Cinquante nuances de blanc », ce que le défilé Dolce & Gabbana révèle vraiment des représentations dans la mode – https://theconversation.com/cinquante-nuances-de-blanc-ce-que-le-defile-dolce-and-gabbana-revele-vraiment-des-representations-dans-la-mode-276402

Marx permet-il encore de penser notre monde ?

Source: The Conversation – France in French (3) – By Jean-Numa Ducange, Professeur des Universités, Université de Rouen Normandie

Statue de Karl Marx à Chemnitz, rebaptisée Karl-Marx-Stadt de 1953 à 1990, (Saxe, Allemagne, 29 mai 2023). Neurobit

Le marxisme n’est plus en vogue chez les intellectuels depuis l’effondrement de l’URSS. Pourtant, Karl Marx demeure l’un des pères fondateurs des sciences sociales et l’un des rares auteurs à proposer une analyse globale du capitalisme de son temps. Aujourd’hui, le détricotage des États-providence et l’augmentation des inégalités nous conduisent à réinterroger la persistance d’une forme de lutte des classes.


Certes, aujourd’hui, le personnel politique parle beaucoup moins de Marx que dans les années 1960 et 1970. La lutte des classes, les contradictions de capitalisme qui se résorberaient par une révolution prolétarienne, tout cela semble daté. La dissolution de l’URSS qui prétendait incarner ses idées est aussi passée par là. Le philosophe allemand reste tout de même une référence incontournable pour la gauche française, du Parti socialiste jusqu’aux groupes révolutionnaires.

Certaines de ses idées sont souvent reprises par la médiation de la lecture qu’en faisait Jean Jaurès. Ce dernier, républicain, bien intégré dans les institutions de la IIIᵉ République et figure marquante de l’Assemblée nationale, considérait qu’il fallait se servir de la pensée de l’auteur du Capital pour l’emmener vers autre chose. Telle est la démarche qui est aujourd’hui celle de nombreux responsables politiques mais aussi celle de chercheurs et chercheuses.

Car, paradoxalement, la fin du soviétisme a eu l’effet inverse dans le monde universitaire. Sans doute a-t-elle permis de redécouvrir que marxisme ne rimait pas nécessairement avec stalinisme et que la pensée originelle est bien plus complexe que l’image que l’on en avait. Il est peu contesté dorénavant que, à côté d’Émile Durkheim, d’Adam Smith, de David Ricardo ou ce Max Weber, Karl Marx compte parmi les pères fondateurs des sciences sociales. Se plonger dans sa pensée n’est toutefois pas chose aisée. Ses écrits sont aujourd’hui assez difficiles à lire. Cela demande un certain volume de connaissances sur ce qu’était le XIXᵉ siècle pour comprendre le propos et maîtriser un lexique qui n’est plus très actuel.

Si on continue de s’y référer, c’est tout d’abord parce que Marx est un des rares à proposer une analyse assez complète et globalisante du capitalisme de son temps, le capitalisme britannique du XIXᵉ siècle. Sa pensée possède une puissance analytique spécifique car elle allie plusieurs composantes.

On retrouve tout d’abord une dimension philosophique, notamment lorsque, dans ses jeunes années, il développe le concept d’aliénation pour désigner le sentiment éprouvé par un travailleur dépossédé des fruits de son travail. Marx, c’est aussi, dans l’Idéologie allemande notamment, une manière de lire l’histoire que l’on nomme le « matérialisme historique ». Elle peut être selon lui comprise à partir des rapports sociaux de production, l’infrastructure sur laquelle repose tout le reste. La religion ou l’organisation de l’État peuvent, selon Marx, être expliquées à partir de la manière dont l’économie produit. Ces rapports sociaux deviennent parfois contradictoires, et c’est ainsi que l’Europe aurait évolué de l’esclavagisme vers le féodalisme et du féodalisme vers le capitalisme. Marx pense également comme un économiste dans le Capital et tente d’analyser la formation de la plus-value, l’évolution du taux de profit ou encore les conséquences de la mécanisation des usines sur la productivité.

Quand bien même on ne partage pas la pensée de Marx, le fait même d’étudier pareil cadre global reste inspirant. Marx essaie de penser le système capitaliste et de lui donner une cohérence qui, parfois même, on le soupçonne moins, est vue comme une force par l’auteur. On trouve des textes de Marx qui traduisent une forme d’admiration pour le capitalisme et sa force propulsive à l’époque.

Marx et son complice et mécène Engels ont certes perdu leur pari lancé en 1848 avec le Manifeste du parti communiste : que la prolétarisation d’une grande partie de la société, petits bourgeois et paysans notamment, mène à une opposition de plus en plus frontale entre deux classes sociales et finalement à une révolution. L’émergence de la classe moyenne au XXᵉ siècle est un phénomène qui ne peut pas exister dans le logiciel de Marx.

Le travail des enfants, la surexploitation, tout cela n’existe plus vraiment. Marx dit des choses intéressantes sur la politique, mais un certain nombre de processus n’étaient pas visibles à son époque : la professionnalisation du personnel politique, y compris à gauche, l’intégration du socialisme dans l’appareil d’État et la naissance d’un État social… Marx a sans doute sous-estimé la capacité du capitalisme à surmonter ses contradictions.

Malgré cela, la brutalité des rapports sociaux semble aujourd’hui de retour avec le détricotage des États-providence. On observe une concentration des richesses d’un côté de la société et une augmentation de la pauvreté de l’autre. L’idée de lutte des classes ne peut pas être pensée comme au XIXᵉ siècle, mais d’une certaine manière, elle correspond sans doute mieux à notre réalité qu’à celle des Trente Glorieuses, au moment pourtant de l’histoire où les partis politiques citaient le plus Marx. Sa pensée retrouve aussi une certaine actualité à travers cela. De même, la « perte de sens au travail » si souvent mentionnée sur LinkedIn et dans moult essais n’est pas si éloignée de la théorie de l’aliénation.

L’enjeu intellectuel de Marx était de lier la place de la bourgeoisie dans le système économique à ses objectifs politiques. Ce n’était pas faire de l’économie pour faire de l’économie. Cette attitude peut encore nous permettre de penser notre monde. Réserves de pétrole, intelligence artificielle, nouvelles technologies… Un marxiste aura le réflexe de se demander ce que ces enjeux économiques peuvent produire socialement et politiquement.

Le risque avec le marxisme est de rester nostalgique de logiques sociales anciennes, incarnées par exemple dans de grandes usines : évoluer vers de nouvelles lectures est un pari intellectuel intéressant et audacieux. Un autre est de se limiter à cette approche qui ne voit en l’individu qu’un membre d’une classe surdéterminée par des intérêts économiques. Cela reste fondamental, mais d’autres choses entrent en ligne de compte pour comprendre les actions des individus. Psychanalyse, sciences cognitives, autres approches de la rationalité… Marx, fervent défenseur de la science et qui saluait volontiers ses avancées, à l’instar des écrits de Charles Darwin, s’y serait très vraisemblablement intéressé également.


Cette contribution est publiée en partenariat avec le Printemps de l’économie, cycle de conférences-débats qui se tiendront du 17 au 20 mars au Conseil économique, social et environnemental (Cese) à Paris. Retrouvez ici le programme complet de l’édition 2026, « Le temps des rapports de force ».

The Conversation

Jean-Numa Ducange a reçu des financements pour des publications scientifiques des Fondations Jean-Jaurès et Gabriel-Péri. Il est expert en histoire pour la Fondation Jean-Jaurès et membre du Conseil scientifique de la Fondation Gabriel-Péri. Il a apporté son soutien à Fabien Roussel lors de la campagne présidentielle 2022.

ref. Marx permet-il encore de penser notre monde ? – https://theconversation.com/marx-permet-il-encore-de-penser-notre-monde-276149

L’Australie : puissance régionale, dépendance globale ?

Source: The Conversation – France in French (3) – By Pierre-Christophe Pantz, Enseignant vacataire et chercheur associé à l’Université de la Nouvelle-Calédonie (UNC), Université de la Nouvelle-Calédonie

Il y a cinq ans, l’Australie dénonçait l’« accord du siècle » qu’elle avait signé avec la France sur la livraison de 12 sous-marins traditionnels, optant à la place pour une alliance avec les États-Unis et le Royaume-Uni – AUKUS – devant lui permettre de recevoir des sous-marins nucléaires fournis par Washington. Ce projet prend déjà du retard. Sans sortir d’AUKUS, Canberra se rapproche d’autres pays de l’Indo-Pacifique pour renforcer sa défense dans un contexte sur lequel plane toujours le risque de la déflagration que constituerait une invasion de Taïwan par la Chine.


Les doutes formulés fin janvier par le Congressional Research Service (CRS) sur la capacité des États-Unis à livrer des sous-marins à l’Australie ravivent le sentiment de vulnérabilité stratégique de Canberra.

Alors que la rivalité s’intensifie dans l’Indo-Pacifique, l’Australie renforce ses partenariats de sécurité dans son voisinage immédiat, comme en témoignent les récents accords conclus avec la Papouasie-Nouvelle-Guinée (2025) et l’Indonésie (2026) dans une tentative de limiter sa dépendance à l’égard de Washington et de renforcer sa marge d’autonomie stratégique.

AUKUS : une stratégie finalement incertaine pour l’Australie

L’alliance AUKUS, pacte de sécurité tripartite signé en 2021 entre l’Australie, le Royaume-Uni et les États-Unis, a marqué un tournant pour la défense australienne. Par ce partenariat, Canberra rompait le « contrat du siècle » précédemment signé avec la France, qui prévoyait la livraison par Paris de douze sous-marins conventionnels, pour se tourner vers une flotte à propulsion nucléaire de conception américaine. Le pilier n°1 de cette alliance, le « transfert de sous-marins nucléaires », devait moderniser la flotte australienne et garantir l’accès aux technologies avancées.

Près de cinq ans après la signature, la mise en œuvre accuse des retards importants et des coûts croissants. Aucun sous-marin australien de nouvelle génération ne sera probablement opérationnel avant le début des années 2040, ce qui place l’Australie dans une situation de dépendance et de vulnérabilité stratégique. Plusieurs experts expriment leur scepticisme quant à la capacité des États-Unis à respecter leurs engagements de livraison.

Ces incertitudes se sont aggravées depuis 2025 avec le retour à la présidence de Donald Trump et de sa doctrine America First, qui tend à concevoir les alliances sous un angle plus transactionnel, évaluées à l’aune des intérêts immédiats et révisés des États-Unis. En effet, lors de la visite du premier ministre Anthony Albanese à la Maison Blanche en octobre 2025, les discussions sur AUKUS avaient été largement éclipsées par un accord sur les terres rares australiennes, prioritaire pour Washington face aux initiatives chinoises en la matière.

Trump a néanmoins tenté de rassurer Canberra sur la livraison des sous-marins, promettant le respect des engagements du « pilier 1 », mais ces assurances apparaissent en partie intéressées, s’inscrivant avant tout dans le contexte du traité sur les terres rares. Dans ce contexte, et comme le confirme la récente National Security Strategy publiée par la Maison Blanche, le Pacifique Sud semble relégué au second plan dans les priorités américaines, ce qui nourrit les interrogations australiennes quant à la solidité de l’engagement de Washington.

Les inquiétudes australiennes se trouvent renforcées par un rapport du CRS publié en janvier 2026. Le document souligne que les sous-marins promis pourraient rester sous commandement américain tout en opérant depuis des bases australiennes, les États-Unis souhaitant conserver le contrôle de ces appareils en vue d’un hypothétique conflit avec la Chine au sujet de Taïwan. Expression du rapport, cette « division du travail militaire » confirmerait que l’Australie pourrait rester un simple relais stratégique sans pleine autonomie opérationnelle. Bien que le CRS n’engage pas la position officielle de l’administration américaine, ce rapport renforce les doutes sur la fiabilité de l’alliance.

Renforcer l’influence régionale pour sécuriser son voisinage

Face à ce contexte incertain et les avancées de la présence chinoise dans le Pacifique – notamment à travers les Nouvelles Routes de la soie – l’Australie mène une contre-offensive diplomatique et sécuritaire destinée à préserver ce qui relève, de son point de vue, de sa sphère d’influence.

Ces toutes dernières années, Canberra a ainsi consolidé un réseau d’accords sécuritaires avec plusieurs États du Pacifique, à l’image du traité Falepili signé avec Tuvalu en 2023 ou de l’accord bilatéral conclu avec Nauru en 2024. Cette stratégie de verrouillage vise, sans les nommer, à limiter les ingérences chinoises et à réaffirmer l’influence australienne dans son environnement régional. Cette évolution traduit une évolution notable de la culture stratégique australienne, longtemps marquée par une dépendance assumée au parapluie américain.

Dans cette continuité, le traité Pukpuk signé avec la Papouasie-Nouvelle-Guinée (octobre 2025) et l’accord, encore plus récent, conclu avec l’Indonésie (février 2026) constituent deux accords sécuritaires majeurs, scellés à quelques mois d’intervalle, révélant une priorité stratégique désormais assumée : faire du voisinage septentrional un glacis destiné à tenir la rivalité sino-occidentale à distance du sanctuaire australien.

Ces dispositifs associent coopération militaire, intégration des forces et structuration d’un réseau régional destiné à sécuriser ses « marches » mélanésiennes et au-delà. Ils s’inscrivent dans un espace où d’autres acteurs conservent également des intérêts structurants, au premier rang desquels la France, présente en Nouvelle-Calédonie, dont la permanence stratégique contribue, elle aussi, à la configuration sécuritaire du Pacifique insulaire.

Toutefois, derrière le discours de partenariat « d’égal à égal », ils traduisent aussi un équilibre délicat entre protection et contrôle : pour les États insulaires du Pacifique, qui ne peuvent que constater la persistance d’une asymétrie de puissance, ces dispositifs constituent une garantie de sécurité face aux pressions chinoises, tout en ravivant le risque de dépendance à l’égard de l’Australie.

Le paradoxe d’une puissance moyenne : leadership régional sous dépendance américaine

À ce jour, une rupture avec l’AUKUS demeure toutefois très improbable tant les interdépendances militaires et technologiques sont profondes. Pourtant, les incertitudes entourant l’exécution du traité rappellent que les priorités de Washington peuvent évoluer au risque de cantonner Canberra à un rôle de « partenaire subordonné ».

À ce titre, si l’Australie ne cherche pas une autonomie stratégique complète vis-à-vis des États-Unis, elle s’efforce en revanche de compenser cette dépendance par sa capacité à regagner une influence régionale érodée par les initiatives de Pékin. En effet, en consolidant son ancrage (diplomatique, politique, sécuritaire, économique) dans le Pacifique, elle ambitionne moins de s’émanciper des États-Unis que de devenir un acteur régional incontournable capable de concurrencer et de contenir l’influence spectaculaire et multiforme de la Chine.

Cette posture reflète la condition classique d’une puissance moyenne : assez influente pour structurer son environnement immédiat, mais trop dépendante pour s’affranchir des rapports de force imposés par les grandes puissances, en l’occurrence chinoise et américaine. Canberra se trouve par ailleurs dans un exercice d’équilibriste : contenir la Chine tout en préservant avec elle une relation économique et commerciale essentielle et, dans le même temps, affirmer son leadership sans apparaître comme un simple relais de la nouvelle stratégie américaine de l’administration Trump.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’Australie : puissance régionale, dépendance globale ? – https://theconversation.com/laustralie-puissance-regionale-dependance-globale-276086

Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue

Source: The Conversation – France in French (3) – By Raul Zepeda Gil, Research Fellow in the War Studies Department, King’s College London

« El Mencho », chef d’un puissant cartel, a été abattu pendant une opération militaire le 22 février. Immédiatement, son organisation a semé la terreur dans de nombreux États du pays. On dénombre déjà plusieurs dizaines de morts. Ce type d’épisode intervient fréquemment, notamment sous la pression de Washington, qui exige des autorités mexicaines qu’elles s’en prennent aux trafiquants locaux, dont la production est en large partie destinée aux États-Unis. Mais l’efficacité des éliminations physiques des parrains reste à démontrer.


Le chef du cartel Jalisco New Generation (CJNG), Nemesio Oseguera Cervantes, plus connu sous le nom d’« El Mencho », a succombé à ses blessures le 22 février, peu après avoir été capturé par les autorités mexicaines dans l’État de Jalisco (ouest du pays) pendant une opération au cours de laquelle il avait été touché par des tirs. Cette opération, qui s’est déroulée sur fond d’exigences états-uniennes quant à des « résultats tangibles » du Mexique dans la lutte contre le trafic de fentanyl, semble avoir bénéficié du soutien des services de renseignement de Washington.

Il s’agit de l’intervention la plus importante des forces de l’ordre mexicaines contre les cartels depuis la capture de l’ancien baron de la drogue Joaquín « El Chapo » Guzmán en 2016. Le CJNG est l’une des organisations criminelles les plus puissantes du Mexique et est accusé par les États-Unis, de même que le cartel de Sinaloa, de jouer un rôle clé en matière de production et de trafic de fentanyl.

Éliminer des individus n’entraîne pas la disparition ni même l’amoindrissement du marché de la drogue

L’élimination d’« El Mencho » a peut-être permis aux autorités mexicaines de remporter une victoire politique auprès de Washington. Mais le pays paie déjà un tribut élevé pour cette opération. Lorsque l’État mexicain élimine une figure importante d’un cartel, s’ensuit souvent une longue période de violence et d’instabilité. Dès l’annonce du décès du trafiquant, une vague de violences commises par ses hommes a balayé le pays.

Dans mes recherches sur les conflits criminels dans la région de Tierra Caliente, dans l’ouest du Mexique, je retrace la façon dont les premières vagues d’arrestations et d’éliminations par l’État ont remodelé les groupes criminels locaux, brisé des alliances et ouvert la voie à de nouveaux acteurs et dirigeants. C’est grâce à ce cycle de répression étatique et de réorganisation des cartels qu’El Mencho s’est fait connaître.

El Mencho a démarré dans sa carrière de criminel en tant que membre opérationnel lié au cartel Valencia, une organisation basée dans l’État de Michoacán. Le groupe a perdu du terrain à la fin des années 2000 sous la pression soutenue des autorités. Après le démantèlement des éléments clés du réseau Valencia vers 2010, El Mencho et d’autres membres restants du groupe se sont déplacés vers Jalisco, plus au nord, et ont fondé le CJNG.

Les conditions qui ont permis l’ascension du CJNG proviennent du même répertoire de mesures répressives que les autorités déploient aujourd’hui contre lui. Ce schéma est important, car il remet en cause une hypothèse courante parmi les décideurs politiques, y compris au sein d’agences états-uniennes telles que la Drug Enforcement Administration, selon laquelle éliminer un « chef » équivaut à démanteler un marché criminel.

En réalité, l’élimination des parrains mexicains n’entraîne pas la disparition du marché de la drogue, ni celle des routes de trafic. Ce qui change, c’est l’équilibre des pouvoirs entre les groupes qui se disputent le territoire, la main-d’œuvre et l’accès aux ports, aux routes et aux autorités locales.

Des études de la stratégie dite « kingpin », qui consiste pour les forces de l’ordre à cibler délibérément les chefs de cartels, ont montré que les arrestations et les éliminations entraînent souvent une augmentation à court terme des homicides et de l’instabilité au Mexique. Certaines études suggèrent que la violence augmente pendant plusieurs mois après l’élimination d’un chef, tandis que d’autres recherches montrent que l’assassinat d’un parrain peut provoquer une augmentation des violences plus forte qu’une arrestation.

Cela s’explique par le fait qu’un cartel touché est confronté à une succession soudaine et recourt à la violence pour empêcher – ou contrer – ses rivaux qui testent la nouvelle direction et tentent de renégocier les zones de contrôle. Les groupes criminels ne pouvant pas recourir au système judiciaire officiel pour résoudre leurs différends, ils ont tendance à le faire par le biais de violences ouvertes ou de négociations imposées par la force.

Cette logique se manifeste une nouvelle fois après la mort d’El Mencho. Les rapports faisant état de membres armés du cartel bloquant les routes, commettant des incendies criminels et semant le chaos dans plusieurs États correspondent à un scénario familier : une organisation touchée signale que sa capacité demeure intacte, punit l’État et avertit ses rivaux locaux qu’ils n’ont pas intérêt à chercher à profiter de la situation.

Même si l’État parvient à contenir cette vague de violence, le risque le plus grave réside dans ce qui suivra. Un vide au niveau du leadership favorise les divisions internes et l’opportunisme externe de la part de rivaux qui attendaient une occasion pour tester les limites et régler leurs comptes.

Par exemple, en 2024, l’arrestation du chef du cartel de Sinaloa, Ismael « El Mayo » Zambada, a provoqué une vague de violence dans l’État de Sinaloa, les différentes factions de l’organisation se disputant le pouvoir.

La politique de lutte contre la drogue des États-Unis

Un autre cycle qui se répète sans cesse en Amérique latine : la politique états-unienne en matière de drogues façonne les programmes de sécurité dans toute la région. Une augmentation du nombre de décès par overdose aux États-Unis, par exemple, peut y provoquer une panique politique et inciter Washington à faire pression sur les gouvernements latino-américains pour qu’ils prennent des mesures, généralement par le biais d’une répression militarisée.

Ces gouvernements réagissent par des mesures répressives, des raids et des arrestations très médiatisées. S’ensuit alors une recrudescence de la violence à mesure que les organisations criminelles se fragmentent ; puis, après un certain temps, les gouvernements tentent de désamorcer la situation. Le cycle recommence un peu plus tard, lorsque les États-Unis placent de nouveau le trafic de drogue en tête de leurs priorités.

L’interdiction des drogues perpétue ce cycle en excluant toute réponse autre que la force ou le droit pénal, sans pour autant produire de résultats significatifs. La plupart des pays ont criminalisé les drogues. Mais malgré les rapports des gouvernements faisant état d’une augmentation des saisies de drogues chaque année, les décès liés à la consommation de drogues dans le monde continuent d’augmenter.

Mêmes causes, mêmes effets

Les forces de sécurité mexicaines ne peuvent mettre fin à un marché transnational largement financé par la demande états-unienne, quel que soit le nombre d’arrestations spectaculaires qu’elles effectuent. Les opérations qui aboutissent à l’élimination ou à la détention de figures importantes des cartels ne font que rediriger et réorganiser le trafic de drogue, tout en intensifiant souvent la violence.

Si le Mexique et les États-Unis veulent réduire le nombre de décès liés aux cartels, ils doivent cesser de considérer l’élimination des barons de la drogue comme le principal indicateur de réussite. Si une opération très médiatisée satisfait temporairement Washington, ce sont les citoyens mexicains qui doivent trop souvent en subir les conséquences.

The Conversation

Raul Zepeda Gil ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le Mexique à feu et à sang après l’élimination par l’armée d’un baron de la drogue – https://theconversation.com/le-mexique-a-feu-et-a-sang-apres-lelimination-par-larmee-dun-baron-de-la-drogue-276779

L’audition des Clinton peut-elle faire basculer l’affaire Epstein ?

Source: The Conversation – France in French (3) – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

L’ancien président des États-Unis (1993-2001) et son épouse, ancienne secrétaire d’État (2009-2013) et candidate démocrate à la présidence en 2016, vont témoigner devant la Chambre des représentants dans le cadre de la commission d’enquête sur Jeffrey Epstein. Une audience choc qui pourrait se dérouler selon plusieurs scénarios différents.


Les auditions de Bill et Hillary Clinton devant la commission d’enquête de la Chambre des représentants sur l’affaire Epstein, les 26 et 27 février prochain, s’annoncent comme un moment politique et médiatique majeur aux États-Unis. Jeffrey Epstein, financier déchu condamné pour infractions sexuelles, est au cœur d’un vaste scandale mêlant exploitation de mineures, réseaux d’influence et complaisances au sommet de l’État, qui continue de produire des répliques bien après sa mort en détention en 2019.

Bill Clinton a effectué plusieurs vols à bord du jet privé d’Epstein et la publication de photos le montrant aux côtés de Ghislaine Maxwell a nourri soupçons et théories, faisant de son nom l’un des plus scrutés dans ce dossier. Hillary est, elle, convoquée car elle doit préciser ce qu’elle sait des relations entre son mari et Epstein.

Pourquoi les Clinton ont-ils fini par accepter de témoigner ?

Pendant des mois, le couple Clinton a opposé une résistance frontale à la commission de contrôle de la Chambre, arguant que les convocations étaient juridiquement contestables et politiquement motivées.

Rappelons que la « commission sur l’affaire Epstein » n’est pas une institution permanente ; elle a été créée spécialement pour le dossier Epstein. Il s’agit d’une enquête conduite par des commissions existantes, principalement la commission de contrôle (Oversight), qui disposent du pouvoir d’assigner des témoins et d’organiser des auditions.

Les Clinton estiment que la commission de la Chambre des représentants chargée d’enquêter sur l’affaire Epstein leur est hostile parce qu’elle est contrôlée par la majorité républicaine, politiquement opposée à leur camp, notamment sous la présidence du républicain James Comer, à la tête de la House Committee on Oversight and Accountability. Ils dénoncent une focalisation jugée excessive sur les relations passées entre Bill Clinton et Jeffrey Epstein, estimant que d’autres personnalités liées à Epstein ne font pas l’objet de la même attention, ce qui selon eux révèle un ciblage politique.

Ils critiquent également des méthodes d’enquête qu’ils jugent agressives, comme les assignations à comparaître, les auditions sous serment à huis clos et la menace de poursuites pour entrave en cas de refus de coopérer, considérant que ces procédés suggèrent une présomption de culpabilité. Enfin, ils affirment que la convocation de Hillary Clinton s’inscrit dans un contexte de polarisation politique intense aux États-Unis, où certaines commissions parlementaires sont utilisées pour affaiblir des adversaires médiatiquement, alors même qu’elle n’est pas inculpée dans cette affaire et qu’elle est entendue comme témoin.

Le ton des échanges s’est durci jusqu’à la menace explicite d’un vote pour outrage au Congrès, signe que le bras de fer dépassait le simple cadre procédural. Sous cette pression, Bill et Hillary Clinton ont finalement accepté de témoigner dans des dépositions distinctes mais coordonnées, transformant un affrontement institutionnel en événement national.

Ce basculement s’explique aussi par la déclassification progressive des dossiers Epstein par le département de la Justice. Des dizaines de milliers de pages mêlant dossiers judiciaires, relevés bancaires, photographies et notes internes ont été rendues publiques, sous forme partiellement caviardée pour protéger les victimes. Cette mise à nu d’un système de prédation et de connivences a intensifié la demande de transparence. Chaque publication a relancé spéculations et appels à rendre des comptes. Dans ce contexte, le refus persistant des Clinton de se présenter à une audition devenait politiquement intenable. Lors d’un vote au Congrès lié à leur refus initial de témoigner, plusieurs élus démocrates ont voté avec les républicains pour les sanctionner pour outrage au Congrès, affirmant privilégier la responsabilité et la justice pour les victimes plutôt que la loyauté partisane.

La déclassification a fourni à la commission des éléments documentaires et créé un climat où l’absence des témoins les plus exposés devenait toxique sur le plan politique.

Une audience ouverte

Au-delà du cas Epstein, la convocation d’un ancien président et d’une ancienne secrétaire d’État soulève une question historique. Des présidents ont déjà été confrontés à des enquêtes lourdes ou à des procédures de destitution, mais voir un ex-président appelé comme témoin dans une commission parlementaire focalisée sur un scandale d’abus sexuels et de compromission d’élites constitue une situation quasi inédite par sa charge symbolique. La combinaison d’un ancien couple présidentiel, d’une affaire criminelle devenue symbole de l’impunité des puissants et d’un climat politique polarisé confère à cette audition une dimension exceptionnelle.

Initialement, les discussions sur les modalités du témoignage relevaient d’une gestion classique des risques : huis clos, temps de parole encadré, protocole strict pour limiter les fuites. Les avocats des Clinton plaidaient pour une audition technique et non spectaculaire. La stratégie a toutefois connu une rupture lorsque Hillary Clinton a demandé publiquement que l’audience soit ouverte et retransmise. Ce choix vise à renverser l’accusation d’opacité et à empêcher la diffusion d’extraits partiels susceptibles d’être instrumentalisés. L’audition devient ainsi une scène politique autant qu’un exercice de reddition de comptes.

Cette revendication de transparence répond à la crainte d’une instrumentalisation partisane. Hillary Clinton cherche à apparaître comme une témoin volontaire, exposée à la lumière pour éviter toute manipulation. En rendant la séance publique, elle oblige ses interrogateurs à assumer leurs questions devant l’opinion et tente de déplacer l’attention vers les défaillances institutionnelles qui ont permis à Epstein d’agir. Elle ambitionne ainsi de transformer une position défensive en posture offensive, en se plaçant du côté des victimes et de la vérité.

Au cœur de cette stratégie figure la promesse de révélations importantes sur la manière dont l’État et certaines élites ont géré le cas Epstein. Hillary Clinton a évoqué des documents accablants et des défaillances systémiques, laissant entendre que le scandale dépasse la question des relations personnelles pour toucher à des choix institutionnels et à des signaux d’alerte ignorés. La question demeure de savoir jusqu’où elle est prête à aller dans la mise en cause d’un système dont elle a elle-même fait partie.

L’audition autour de l’affaire Epstein pourrait se dérouler selon quatre scénarios clés, chacun susceptible de produire un impact concret sur la perception publique et l’évolution judiciaire du dossier.

Quatre scénarios

Le premier scénario reste celui du choc maîtrisé. Les Clinton pourraient reconnaître certaines relations sociales ou financières jugées aujourd’hui discutables, tout en niant toute connaissance des crimes d’Epstein. Dans ce cadre, l’audition se transformerait en un exercice de clarification : le public et les enquêteurs obtiendraient quelques confirmations sur les fréquentations et les rendez-vous, mais aucune révélation explosive ne viendrait bouleverser les positions déjà établies. L’effet immédiat serait limité : la couverture médiatique serait intense mais essentiellement centrée sur les contradictions mineures ou sur la perception de sincérité des Clinton.

Le second scénario plausible serait celui de la mise en cause institutionnelle. L’audition pourrait révéler que certains manquements au sein des agences fédérales, des forces de l’ordre ou des structures judiciaires ont permis à Epstein de continuer ses activités sans véritable sanction. Ce scénario élargirait l’enquête au-delà des Clinton, mettant sous pression d’autres responsables politiques ou financiers et déclenchant des appels à des réformes structurelles. Les documents et témoignages mis en avant pourraient révéler un système de protection indirecte ou de négligence, redessinant la compréhension publique des défaillances institutionnelles.

Un troisième scénario envisageable serait l’audition comme affrontement politique. Dans ce cas, chaque camp chercherait à instrumentaliser les déclarations pour déstabiliser l’adversaire, transformant le moment judiciaire en bataille idéologique. Les Clinton, mais aussi leurs opposants, pourraient chercher à utiliser chaque mot à des fins de communication politique, détournant l’attention du cœur du dossier. Ce scénario risquerait de brouiller le récit central de l’affaire, mais pourrait aussi révéler des stratégies de manipulation et d’influence autour du scandale.

Enfin, un scénario complémentaire mais non négligeable serait celui de révélations inédites ou confirmations de défaillances systémiques. L’audition pourrait mettre au jour des documents jusque-là confidentiels ou des témoignages de victimes, donnant une dimension criminelle renouvelée au dossier. Dans ce cas, l’affaire Epstein ne se limiterait plus à un scandale médiatique ou à une controverse politique : elle deviendrait le symbole d’un échec généralisé des institutions à protéger les victimes et à sanctionner les auteurs.

Un grand moment de vérité ?

Dans tous ces scénarios, le point commun est la mise en lumière de la fragilité d’un système où le pouvoir et le réseau social peuvent, dans certains cas, prévaloir sur la justice. L’audition des Clinton, qu’elle soit prudente ou révélatrice, pourrait donc devenir un moment de vérité national : elle a le potentiel de transformer le scandale Epstein d’affaire privée en affaire systémique, exposant non seulement les acteurs directs mais aussi les complicités et défaillances qui ont permis à ces crimes de perdurer.

Dans la presse, cette audience sera scrutée comme un révélateur du fonctionnement réel du pouvoir, un moment où les lignes partisanes pourraient s’effacer devant l’urgence de la transparence et de la vérité judiciaire.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’audition des Clinton peut-elle faire basculer l’affaire Epstein ? – https://theconversation.com/laudition-des-clinton-peut-elle-faire-basculer-laffaire-epstein-276610

Africa’s militaries have always relied on imported weapons: why a shift to homegrown defence is now under way

Source: The Conversation – Africa (2) – By Nate Allen, Associate Professor of Security Studies, National Defense University

Africa’s militaries are built on imported power. Foreign countries such as China, Russia, the United States, Turkey and France dominate Africa’s weapons market. Between them they supply everything from small arms to attack helicopters, unmanned systems and communications equipment.

The results are often quite poor. From the Sahel to Somalia, weapons and equipment supplied from abroad breaks down quickly, sits idle for lack of maintenance, or requires expertise that local forces are not trained to sustain.

At the same time, insurgents on motorbikes equipped with AK-47s and improvised explosives gain the upper hand. These issues are quite often due to corruption or mismanagement by African militaries, a problem that has been extensively documented by scholars.

Now, a quiet revolution is underway. Having spent collectively decades researching and working with African militaries, we have noticed a growing trend of discontent with reliance on external actors to build their security forces. As a result, African governments are becoming more determined to reduce dependence on foreign suppliers and build capabilities they can control, maintain and adapt.

Numerous African countries, from Nigeria to Kenya to Morocco, are embracing a combination of disruptive new technologies and partnerships to localise defence supply chains and build local military capabilities. Morocco, the country which has pursued this strategy most successfully, has managed to triple its arms exports over the last few years, and is on its way to becoming a defence manufacturing hub.

Lowered barriers to innovation are offering African countries an opportunity to shift from being security consumers to being producers and even exporters of military equipment and technology. This shift could enable African militaries to more sustainably project and maintain force and capture value from a growing global arms market.

Dependency’s challenges

On paper, imported military equipment promises cutting-edge capabilities. In practice, it often delivers frustration.

Nowhere is this clearer than in Mali. Beginning in 2021, Russia supplied Bamako with a “small air force” of dozens of attack helicopters, transport planes and other combat aircraft as part of its expanding security role in the Sahel. This air force no longer exists. The two Sukhoi-25 fighter jets Mali received were lost within months. Of eight Mi-35M and Mi-171 attack helicopters, only one remained serviceable within a year of delivery. Mali’s army was unable to maintain them. Meanwhile, rebel groups using stolen rifles, lightweight anti-aircraft guns and homemade artillery overran military outposts and encircled Bamako.

Even Africa’s better-resourced militaries struggle. South Africa operates one of the continent’s most advanced fleets of fighter aircraft, yet only half of its Swedish-built JAS Gripen aircraft and seven of its 39 Oryx helicopters were serviceable as of mid‑2024 because of parts shortages and maintenance gaps. South Africa’s state-owned arms manufacturer Denel, once a world-class defence and aerospace producer, has declined over the past decade amid financial distress, governance failures and state capture, leading to liquidity shortages, unpaid suppliers and a loss of skilled personnel.

Ghana has one of the region’s most capable fleets. But many of its ships remain unserviceable. Ambitious plans to expand the fleet have been delayed owing to prohibitive costs: one modern corvette costs US$200 million, or half of Ghana’s 2024 military budget.

Homegrown solutions

The growing appeal of homegrown solutions was on display in August 2025, when Nigeria convened 37 African defence chiefs to discuss how to develop local security solutions. Nigeria’s chief of defence at the time, General Christopher Musa, urged his counterparts to innovate on their own terms by investing in “cyber defence, artificial intelligence and indigenous military technology.”

Nigeria has already begun to do so. It is one of the few but growing number of African countries with a cyber warfare command. The country is expanding local production of small arms and ammunition. For example, it is developing rocket systems, and designing AI-enabled wearable devices for a future “smart soldier”.

Nigeria has also become a continental leader in the production of unmanned aerial systems (UAVs). These include lightweight FPV drones, one-way kamikaze drones, and long endurance combat drones. A drone factory in Abuja is now capable of churning out 10,000 drones annually.

Nigeria is not alone. Nine African countries now produce drones, supplying an increasing share of the African market. Twenty-one have launched and own satellites. South Africa, Kenya and Senegal are experimenting with 3D printing (making 3D objects from a digital file by adding successive layers of material) for critical spare parts, drone swarms for border security, and satellite-based communications to reduce dependency on external signals intelligence.

These affordable, adaptable and dual-use technologies allow African armed forces to respond to asymmetric threats from terrorist organisations and criminal networks without bloating defence budgets or waiting for international suppliers.

When domestic production is not immediately possible, African governments are pursuing opportunities for technology transfer and co-production. Sudan’s locally manufactured Zajil-3 multi-role attack drone is a copy of the Ababil-3 drone made by Iran, one of the country’s top external drone suppliers. Morocco is positioning itself as a defence manufacturing hub by partnering with India’s Tata Motors to locally manufacture armoured vehicles. It is also partnering Israel’s Bluebird Aero systems to produce military drones, and is attempting to woo US firms such as Lockheed Martin to invest in local production and maintenance lines.

Next steps

These trends reflect a broader realisation: in an era of intensifying great-power competition and shifting global alliances, the capacity to make independent defence and security decisions, free from external influence, is a core national security concern.

The cultivation of local supply chains is necessary but not sufficient for Africa’s militaries to overcome the challenges of relying on externally supplied military equipment and technology. Institutional capacity, regulatory frameworks and human capital must be developed in tandem to translate innovation into meaningful outcomes. Cybersecurity, data governance and ethics must also be taken into consideration, ensuring that technological sovereignty does not become a liability. The embrace of technology will do little to make African citizens safer if it is used to entrench corrupt elites or abuse human rights.

Finally, while greater independence in the production of defence platforms and technology is a worthy goal, total autonomy is a fantasy. For higher-end military systems such as advanced missiles, frontier AI, manned combat aircraft, and key components such as chips and semiconductors, African governments will maintain some degree of dependency on external actors for a long time to come.

The next phase of Africa’s defence transformation needs to move beyond acquiring advanced technology and equipment. It needs to ensure they are suited to the continent’s unique threats, and that they are locally managed and maintained.

The views expressed are those of the authors and do not reflect the official position of the Africa Center for Strategic Studies, National Defense University or the Department of Defense.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Africa’s militaries have always relied on imported weapons: why a shift to homegrown defence is now under way – https://theconversation.com/africas-militaries-have-always-relied-on-imported-weapons-why-a-shift-to-homegrown-defence-is-now-under-way-274802

L’« IA edge », qu’est-ce que c’est et à quoi ça sert ?

Source: The Conversation – France in French (2) – By Georgios Bouloukakis, Assistant Professor, University of Patras; Institut Mines-Télécom (IMT)

Décentraliser les calculs comporte des avantages et de nombreux défis techniques. Kieran Woo/Unsplash, CC BY

Pour analyser les énormes volumes de données, notamment ceux générés par les nombreux capteurs qui peuplent désormais nos vies – du lave-vaisselle à la voiture, sans parler de nos téléphones –, on les envoie sur le cloud. Pour permettre des calculs plus rapides et plus sécurisés, l’edge computing se développe. Son pendant IA est l’edge AI (en anglais), une manière de faire de l’IA sans recourir au cloud. Explications d’un spécialiste.


Les capteurs nous accompagnent partout : dans les maisons, dans les bureaux, à l’hôpital, dans les systèmes de transport et à la ferme. Ils offrent la possibilité d’améliorer la sécurité publique et la qualité de vie.

L’« Internet des objets » (IoT en anglais, pour Internet of Things) inclut les capteurs de température et de qualité de l’air qui visent à améliorer le confort intérieur, les capteurs portables pour surveiller la santé, les lidars et les radars pour fluidifier le trafic ainsi que les détecteurs permettant une intervention rapide lors d’un incendie.

Ces dispositifs génèrent d’énormes volumes de données, qui sont utilisées pour entraîner des modèles d’intelligence artificielle. Ceux-ci apprennent un modèle de l’environnement opérationnel du capteur afin d’en améliorer les performances.

Par exemple, les données de connectivité provenant des points d’accès wifi ou des balises Bluetooth déployés dans les grands bâtiments peuvent être analysées à l’aide d’algorithmes d’IA afin d’identifier les modèles d’occupation et de mouvement à différentes périodes de l’année et pour différents types d’événements, en fonction du type de bâtiment (par exemple, bureau, hôpital ou université). Ces modèles peuvent ensuite être exploités pour optimiser le chauffage, la ventilation, les évacuations, etc.

Combiner l’Internet des objets et l’intelligence artificielle s’accompagne de défis techniques

L’ « intelligence artificielle des objets » (AIoT, en anglais) combine l’IA et l’IoT. Il s’agit de mieux optimiser et automatiser les systèmes interconnectés, et d’ouvrir la voie à une prise de décision intelligente. En effet, les systèmes AIoT s’appuient sur des données réelles, à grande échelle, pour améliorer la précision et la robustesse de leurs prédictions.

Mais pour tirer des informations des données collectées par les capteurs IoT, celles-ci doivent être collectées, traitées et gérées efficacement.

Pour ce faire, on utilise généralement des « plateformes cloud » (par exemple, Amazon Web Services, Google Cloud Platform, etc.), qui hébergent des modèles d’IA à forte intensité de calcul – notamment les modèles de fondations récents.

Que sont les modèles de fondation ?

  • Les modèles de fondation sont un type de modèles d’apprentissage automatique entraînés sur des données généralistes et conçus pour s’adapter à diverses tâches en aval. Ils englobent, sans s’y limiter, les grands modèles de langage (LLM), qui traitent principalement des données textuelles, mais aussi les modèles dits « multimodaux » qui peuvent travailler avec des images, de l’audio, de la vidéo et des données chronologiques.
  • En IA générative, les modèles de fondation servent de base à la génération de contenus (textes, images, audio ou code).
  • Contrairement aux systèmes d’IA conventionnels qui s’appuient sur des ensembles de données spécifiques à une tâche et sur un prétraitement approfondi, les modèles de fondation ont la capacité d’apprendre sur la base de peu ou pas d’exemples (on parle respectivement de « few-shot learning » et de « zero-shot learning »). Ceci leur permet de s’adapter à de nouvelles tâches et de nouveaux domaines avec un minimum de personnalisation.
  • Bien que les modèles de fondation en soient encore à leurs débuts, ils ont un grand potentiel de création de valeur pour les entreprises de tous les secteurs : leur essor marque donc un changement de paradigme dans le domaine de l’intelligence artificielle appliquée.

Les limites du cloud pour traiter les données de l’IoT

L’hébergement de systèmes lourds d’IA ou de modèles de fondation sur des plateformes cloud offre l’avantage de ressources informatiques abondantes, mais il présente également plusieurs limites.

En particulier, la transmission de grands volumes de données IoT vers le cloud peut augmenter considérablement les temps de réponse des applications AIoT, avec des délais allant de quelques centaines de millisecondes à plusieurs secondes selon les conditions du réseau et le volume de données.

De plus, le transfert de données vers le cloud, en particulier d’informations sensibles ou privées, soulève des questions de confidentialité. On considère généralement que l’idéal pour la confidentialité est de traiter localement les données, à proximité des utilisateurs finaux, pour limiter les transferts.

Par exemple, dans une maison intelligente, les données provenant des compteurs intelligents ou des commandes d’éclairage peuvent révéler des habitudes d’occupation ou permettre la localisation à l’intérieur (par exemple, détecter qu’Hélène est généralement dans la cuisine à 8 h 30 pour préparer le petit-déjeuner). Il est préférable que ces déductions se fassent à proximité de la source de données afin de minimiser les retards liés à la communication entre l’edge et le cloud, et afin de réduire l’exposition des informations privées sur les plateformes cloud tierces.




À lire aussi :
Calculs sur le cloud : comment stocker et exploiter les données de façon sûre… et pas trop onéreuse


Qu’est-ce que l’« edge computing » et l’« edge AI » ?

Pour réduire la latence et améliorer la confidentialité des données, l’edge computing est une bonne option, car il fournit des ressources informatiques (c’est-à-dire des appareils dotés de capacités de mémoire et de traitement) plus proches des appareils IoT et des utilisateurs finaux, généralement dans le même bâtiment, sur des passerelles locales ou dans des microcentres de données à proximité.

Cependant, ces ressources dites « périphériques » (edge) sont nettement plus limitées en termes de puissance de traitement, de mémoire et de stockage que les plateformes cloud centralisées, ce qui pose des défis pour le déploiement de modèles d’IA complexes dans des environnements distribués.

Le domaine émergent de l’edge AI, particulièrement actif en Europe, cherche à y remédier pour une exécution efficace de tâches d’IA sur des ressources plus frugales.

L’une de ces méthodes est le split computing, qui partitionne les modèles d’apprentissage profond entre plusieurs nœuds au sein d’un même espace (par exemple, un bâtiment), ou même entre différents quartiers ou villes.

La complexité augmente encore avec l’intégration des modèles de fondation, qui rendent la conception et l’exécution des stratégies de split computing encore plus difficile.

Quels changements cela implique-t-il en termes de consommation d’énergie, de confidentialité et de vitesse ?

L’edge computing améliore considérablement les temps de réponse en traitant les données plus près des utilisateurs finaux, éliminant ainsi la nécessité de transmettre les informations à des centres de données cloud éloignés. Cette approche améliore également la confidentialité, en particulier avec l’avènement des techniques d’edge AI.

Par exemple, l’apprentissage fédéré permet de former des modèles d’apprentissage automatique directement sur des appareils locaux, voire directement sur de nouveaux appareils IoT. En effet, ceux-ci sont dotés de capacités de traitement, garantissant ainsi que les données brutes restent sur l’appareil tandis que seules les mises à jour des modèles d’IA sont transmises aux plateformes edge ou cloud, où ils peuvent être agrégés et passer la dernière phase d’entraînement.

La confidentialité est également préservée pendant l’inférence. En effet, une fois entraînés, les modèles d’IA peuvent être déployés sur les ressources de calcul distribuées (à l’edge), ce qui permet de traiter les données localement sans les exposer aux infrastructures du cloud.

C’est particulièrement utile pour les entreprises qui souhaitent exploiter les grands modèles de langage au sein de leurs infrastructures. Par exemple, ceux-ci peuvent être utilisés pour répondre à des requêtes sur l’état de fonctionnement des machines industrielles, la prévision des besoins de maintenance à partir des données des capteurs – des points qui utilisent des données sensibles et confidentielles. Le fait de conserver les requêtes et les réponses au sein de l’organisation permet de protéger les informations sensibles et de se conformer aux exigences en matière de confidentialité et de conformité.

Comment ça marche ?

Contrairement aux plateformes cloud matures, comme Amazon Web Services et Google Cloud, il n’existe actuellement aucune plateforme bien établie pour prendre en charge le déploiement à grande échelle d’applications et de services edge.

Cependant, les fournisseurs de télécommunications commencent à exploiter les ressources locales existantes sur les sites d’antennes afin d’offrir des capacités de calcul plus proches des utilisateurs finaux. La gestion de ces ressources distribuées reste difficile en raison de leur variabilité et de leur hétérogénéité, impliquant souvent de nombreux serveurs et appareils de faible capacité.

À mon avis, la complexité de la maintenance est un obstacle majeur au déploiement des services d’edge AI. Mais le domaine progresse rapidement, avec des pistes prometteuses pour améliorer l’utilisation et la gestion des ressources distribuées.

Allocation des ressources à travers le continuum IoT-Edge-Cloud pour des applications AIoT sûres et efficaces

Afin de permettre un déploiement fiable et efficace des systèmes AIoT dans les espaces intelligents (tels que les maisons, les bureaux, les industries et les hôpitaux), notre groupe de recherche, en collaboration avec des partenaires à travers l’Europe, développe un cadre basé sur l’IA dans le cadre du projet Horizon Europe PANDORA.

PANDORA fournit des modèles d’« IA en tant que service » (AIaaS) adaptés aux besoins des utilisateurs finaux (par exemple, latence, précision, consommation d’énergie). Ces modèles peuvent être entraînés soit au moment de la conception, soit au moment de l’exécution, à l’aide des données collectées à partir des appareils IoT déployés dans les espaces intelligents.

PANDORA offre aussi des ressources informatiques en tant que service (CaaS) sur l’ensemble du continuum IoT-Edge-Cloud afin de prendre en charge le déploiement des modèles d’IA. Le cadre gère le cycle de vie complet du modèle d’IA, garantissant un fonctionnement continu, robuste et axé sur les intentions des applications AIoT pour les utilisateurs finaux.

Au moment de l’exécution, les applications AIoT sont déployées de manière dynamique sur l’ensemble du continuum IoT-Edge-Cloud, en fonction de mesures de performance, telles que l’efficacité énergétique, la latence et la capacité de calcul. Le CaaS alloue intelligemment les charges de travail aux ressources au niveau le plus approprié (IoT-Edge-Cloud), maximisant ainsi l’utilisation des ressources. Les modèles sont sélectionnés en fonction des exigences spécifiques au domaine (par exemple, minimiser la consommation d’énergie ou réduire le temps d’inférence) et sont continuellement surveillés et mis à jour afin de maintenir des performances optimales.

The Conversation

This work has received funding from the European Union’s Horizon Europe research and innovation actions under grant agreement No. 101135775 (PANDORA) with a total budget of approximately €9 million and brings together 25 partners from multiple European countries, including IISC and UOFT from India and Canada.

ref. L’« IA edge », qu’est-ce que c’est et à quoi ça sert ? – https://theconversation.com/l-ia-edge-quest-ce-que-cest-et-a-quoi-ca-sert-274050

Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu

Source: The Conversation – France in French (3) – By Sam West, Postdoctoral Researcher, Primary Care Health Sciences, University of Oxford

Les médicaments antiobésité par injections sont disponibles exclusivement sur prescription médicale mais doivent être payés par les patients, sans prise en charge par l’Assurance-maladie. martenaba/Shutterstock.com

Les nouveaux médicaments antiobésité par injections, comme Wegovy ou Mounjaro, montrent une certaine efficacité pour maigrir. Mais en cas d’arrêt du traitement, la reprise de poids est rapide. C’est ce que montre une étude récente publiée dans le British Medical Journal. Les chercheurs britanniques interrogent le rapport coût-efficacité pour le système de santé du Royaume-Uni de ces traitements vendus très cher par leurs fabricants. Une analyse éclairante aussi pour la France, où ces médicaments ne sont pas remboursés par l’Assurance-maladie.


Les médicaments antiobésité sous forme de seringues injectables, telles que Wegovy et Mounjaro, ont été présentés comme révolutionnaires. Dans des essais cliniques, les participants ont perdu en moyenne 15 à 20 % de leur poids corporel, des résultats qui semblaient presque miraculeux par rapport aux programmes traditionnels basés sur des régimes et la pratique d’activité physique.

Aujourd’hui, 1 personne sur 50 au Royaume-Uni a recours à ces traitements. La plupart d’entre elles, environ 90 %, les paient de leur poche, pour un coût mensuel compris entre 120 et 250 livres sterling (soit entre 137 et 286 euros, ndlr). Mais il y a un hic : plus de la moitié des personnes arrêtent de prendre ces médicaments dans l’année, principalement pour des raisons financières.

(En France, trois médicaments de cette famille dite des analogues du GLP-1 – Wegovy [sémaglutide], Mounjaro [tirzépatide] et Saxenda [liraglutide] – sont autorisés dans le traitement de l’obésité, sur prescription médicale, et en seconde intention, en cas d’échec de la prise en charge nutritionnelle, en association à un régime hypocalorique et à une activité physique. Ces trois médicaments sont vendus à un prix fixé librement par le laboratoire pharmaceutique qui les commercialise et ne sont pas remboursés par l’Assurance-maladie dans cette indication, ndlr.)

Nos dernières recherches révèlent ce qui se passe ensuite, et cela donne à réfléchir. En moyenne, dans les essais cliniques, les personnes reprennent tout le poids qu’elles ont perdu dans les 18 mois suivant l’arrêt du traitement.

Ce qui est surprenant, c’est la rapidité avec laquelle cela se produit, près de quatre fois plus vite que la reprise de poids observée après l’arrêt de programmes de perte de poids basés sur l’alimentation et l’activité physique. Les améliorations en matière de santé disparaissent également puisque la tension artérielle, le taux de cholestérol et la glycémie reviennent à leurs niveaux initiaux.

Une personne en train de prendre sa tension artérielle
Après arrêt des médicaments antiobésité, la tension artérielle, qui était améliorée par les injections, revient à son niveau d’avant traitement.
ThamKC/Shutterstock

Ces constats revêtent une certaine importance, car ils suggèrent que ces médicaments pourraient devoir être pris sur le long terme, voire à vie, pour maintenir leurs effets bénéfiques. Certains prestataires privés proposent un accompagnement intensif en plus du traitement médicamenteux, et notre analyse a montré que cela aidait les patients à perdre en moyenne 4,6 kg supplémentaires. Cependant, rien ne prouve que l’accompagnement pendant ou après l’arrêt du traitement aide à ralentir la reprise de poids.

Ce rebond rapide soulève de sérieuses questions d’équité dans la prise en charge mais aussi interroge sur le fait de savoir si ces traitements valent le coût du point de vue du NHS (National Health System, qui correspond au système de santé britannique, ndlr). L’obésité est beaucoup plus fréquente chez les personnes vivant dans des zones défavorisées, qui sont également celles pour qui s’offrir un traitement privé est le plus difficile. L’accès au système de santé est essentiel pour garantir à tous des soins égaux, quel que soit les revenus.

Le NHS met progressivement ces médicaments à disposition, mais uniquement pour les personnes en situation d’obésité sévère (IMC supérieur à 40) et concernées par quatre pathologies liées à l’obésité, comme par exemple l’hypertension artérielle. Cela signifie que de nombreuses personnes qui pourraient en bénéficier en sont effectivement exclues, à moins qu’elles ne paient de leur poche.

Les coûts pourraient finir par baisser à mesure que les brevets existants expirent et que des versions orales (sous la forme de comprimés, ndlr) moins coûteuses sont développées. Mais cela pourrait prendre des années. En attendant, nous devons nous assurer que l’accès à ces médicaments par le NHS présente le meilleur coût rapporté à leur efficacité afin que davantage de personnes puissent en bénéficier.

Coûts versus bénéfices

Le National Institute for Health and Care Excellence (en français, Institut national pour la santé et l’excellence clinique), ou [NICE],(https://www.nice.org.uk/) a approuvé l’utilisation de ces médicaments dans le cadre du système de santé publique britannique (NHS) car il a évalué le rapport coût-efficacité selon ses critères habituels. Mais ces calculs partaient du principe que le traitement durerait deux ans et que le poids serait repris trois ans après l’arrêt du traitement. Nos données montrent que lorsque le traitement prend fin, la reprise de poids se produit étonnamment vite.

Nous avons également constaté que les améliorations observées au niveau de la tension artérielle et du cholestérol – qui sont les principales raisons pour lesquelles le NHS traite l’obésité – disparaissaient dans les mêmes délais. Cela suggère que le traitements devrait être poursuivi sur le long terme pour obtenir une perte de poids durable et garantir ses bienfaits pour la santé, ce qui modifie complètement le calcul des coûts.

Des recherches supplémentaires sont nécessaires pour évaluer le véritable rapport coût-efficacité de ces médicaments, en dehors des essais cliniques rigoureusement contrôlés, et pour les patients réellement traités.

Pour les personnes en situation d’obésité qui ne remplissent pas encore les critères stricts du NHS permettant de bénéficier de ces traitements, le rapport coût-efficacité pourrait ne pas être favorable dans le cadre d’une utilisation qui serait généralisée par le NHS tant que leur prix n’aura pas considérablement baissé.

Pour cette population, les programmes traditionnels de gestion du poids restent la base du traitement de l’obésité. Les programmes de remplacement total de l’alimentation, au cours desquels les personnes consomment des soupes et des boissons nutritives équilibrées à la place de repas normaux pendant huit à douze semaines, permettent d’obtenir une perte de poids similaire à celle obtenue avec des médicaments, pour un coût nettement inférieur.




À lire aussi :
Pourquoi l’obésité progresse-t-elle depuis trente ans ?


Les programmes de perte de poids en groupe, comme Weight Watchers et Slimming World, permettent d’obtenir des pertes de poids moyennes moins importantes, mais peuvent avoir un rapport coût-efficacité favorable et même permettre au NHS de réaliser des économies.

Ces nouveaux médicaments antiobésité ont montré à quel point les gens ont désespérément besoin d’aide pour perdre du poids. Mais l’évaluation du coût rapporté à l’efficacité reste floue. Rendre les programmes amaigrissants moins chers et accessibles à toute personne en situation d’obésité qui souhaite bénéficier d’un soutien permettrait un accès plus équitable aux traitements et améliorerait la santé publique, même si les résultats individuels risquent d’être moins spectaculaires que ceux obtenus avec un traitement médicamenteux pris sur le long terme.

The Conversation

Sam West a reçu des financements du « National Institute of Health Research » et participe à trois essais cliniques sur la perte de poids financés par la Fondation Novo Nordisk.

Dimitrios Koutoukidis a reçu des financements du « National Institute of Health Research ». Il est l’investigateur principal d’études financées par des fonds publics et menées par des chercheurs, dans lesquelles Oviva et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d’interventions visant à la perte de poids. Il a supervisé une bourse de doctorat iCASE dans laquelle Second Nature était un partenaire industriel.

Susan Jebb bénéficie d’une bourse de recherche du « National Institute of Health Research ». Elle est l’investigatrice principale d’un programme de recherche financé par la Fondation Novo Nordisk. Oviva, Second Nature et Nestlé Health Sciences ont contribué sur le plan financier ou concernant la mise en œuvre d’interventions visant à la perte de poids dans le cadre de certaines études financées par le National Institute of Health Research.

ref. Nouveaux médicaments antiobésité : l’arrêt des injections entraîne une reprise de poids beaucoup plus rapide que prévu – https://theconversation.com/nouveaux-medicaments-antiobesite-larret-des-injections-entraine-une-reprise-de-poids-beaucoup-plus-rapide-que-prevu-273032

Why does pain last longer for women? Immune cells may be the culprit

Source: The Conversation – USA – By Geoffroy Laumet, Associate Profesor of Physiology and Neuroscience, Michigan State University

Why some people recover more quickly from pain may come down to hormone levels. andreswd/E+ via Getty Images

Pain is something most people experience after an injury, whether from a sprained ankle, surgery or car accident. Normally pain fades as the body heals. But it may last longer in women than in men, making women more likely to develop chronic pain.

For decades, differences in pain between men and women have often been attributed to psychological, emotional or social factors. Because of that, persistent pain in women is often overlooked in care.

However, my research team’s newly published study suggests that the immune system may play a role in why recovery from pain differs in men and women. Doctors have thought that the immune system increases pain by causing inflammation, which is often experienced as redness and swelling.

But recent work from my lab and others suggests that immune cells may also be critical to helping pain resolve, and differences in how these cells function between men and women may influence how quickly pain goes away.

Hormones and immune cells

I am a neuroimmunologist who studies how the nervous and immune systems communicate. My research team aims to understand why pain sometimes persists long after an injury has healed, eventually becoming chronic.

To study this process, we combined experiments in mice with data from people who had been involved in motor vehicle collisions. This type of injury is a common trigger for long-term musculoskeletal pain, making it an ideal situation to study how acute pain becomes chronic.

We focused on a specific molecule called interleukin-10 that helps reduce inflammation, measuring its levels in both mice after skin injury and in people in the emergency room after a motor vehicle accident. Surprisingly, we found that IL-10 doesn’t just calm inflammation. It also communicates directly to pain-sensing nerve cells to switch them off. In other words, IL-10 helps pain to go away.

We identified that IL-10 was mostly produced by a type of immune cell called monocytes that circulate in the blood and travel to injured tissues.

Person lying on couch, hands over forehead, eyes and stomach
A variety of factors influence how long pain lasts.
Ekaterina Goncharova/Moment via Getty Images

Across both mice and humans, we found that males tended to recover from pain more quickly than females. The reason appears to lie in how monocytes behave after injury. In males, these immune cells were more likely to produce IL-10, the molecule that helps resolve pain. In females, this response was less pronounced.

Importantly, we also found that testosterone influences how much IL-10 these immune cells produce. Higher levels of testosterone in males promoted higher production of IL-10 by monocytes.

This finding suggests that hormonal signals may shape the body’s ability to naturally turn off pain after injury.

Avenues for treatment

Our results point to a shift in how scientists think about pain: Rather than viewing the immune system only as a driver of pain, it may also be a key player in resolving it. Differences in immune cell function could explain why some people recover quicker from injury while others go on to develop chronic pain.

Understanding these biological pathways could eventually lead to new treatments. Instead of simply blocking pain signals, future therapies might aim to boost the body’s own pain resolution system. Helping immune cells calm down pain-sensing neurons more effectively could more quickly restore comfort after injury.

While more research is needed, these results highlight a promising new direction in the effort to prevent and treat chronic pain and better understand sex differences in pain.

The Conversation

Geoffroy Laumet receives funding from US NIH and DoD CPMRP. He is a member of the US Association for the Study of Pain.

ref. Why does pain last longer for women? Immune cells may be the culprit – https://theconversation.com/why-does-pain-last-longer-for-women-immune-cells-may-be-the-culprit-276591

1 protein to rule them all – why crowning the protein that makes jellyfish glow green as a model can help scientists streamline biology

Source: The Conversation – USA – By Marc Zimmer, Professor of Chemistry, Connecticut College

Green fluorescent protein has an iconic structure. National Institute of General Medical Sciences/National Institutes of Health via Flickr, CC BY-NC

Fruit flies, mice, zebra fish, yeast and the tiny worm C. elegans are model organisms that have carried modern biology on their backs.

Scientists did not choose them for their charisma. They were chosen because their similarities illuminate biological principles across many species. Their biology is simple enough for researchers to master yet deep enough to keep delivering new insights centuries later.

But biologists don’t have a common reference point for a vast area of the field: proteins, the cell’s doers. Proteins catalyze chemical reactions, give cells their structure and help them communicate with each other. Most organisms use tens of thousands of protein types, and each can be mutated, modified and measured in different ways and in countless environments. Thanks in part to artificial intelligence, researchers are also generating new proteins faster than they can study them.

Without a shared reference point, study results are hard to compare. Two labs can study the same protein under different experimental conditions and end up with findings that do not line up. The result is a scientific literature full of isolated findings that are sometimes duplicated and difficult to generalize.

As a computational chemist who studies fluorescent proteins, I argue that labs also need a set of model proteins. Like how fruit flies and mice anchor whole fields, model proteins can help researchers build on each other’s findings and better understand the fundamentals of biology.

Two mice with glowing eyes, ears and tails flanking a non-glowing mice
Green fluorescent protein illuminates what’s under study.
Moen et al/BMC Cancer, CC BY-SA

Green fluorescent protein as a model

If model proteins are to be yardsticks, the best place to start is with proteins researchers already reach for when they need a reliable standard. Green fluorescent protein is at the top of that list.

Green fluorescent protein, first isolated from a jellyfish, glows bright green when under a blue light. Biologists fuse green fluorescent protein to other proteins to track where the proteins go and when they are made.

Green fluorescent protein is already a de facto reference point for the field, used as a practice protein in experiments before attempting bigger goals. In the early 2000s, researchers used the protein and a yellow version in cloned pigs to show that foreign genes could be added to large mammals and reliably work. Green fluorescent protein made it obvious that the new gene was successfully incorporated because researchers could literally see that the pigs’ cells were making the protein encoded by the fluorescence genes.

Green fluorescent protein is a Nobel Prize-winning discovery.

The long-term aim of these experiments was to engineer pigs to produce specific human proteins that help the immune system accept a pig organ rather than reject it. Green fluorescent protein helped show that the basic engineering of this idea could work, which eventually led to the first pig-to-human kidney transplants.

The use of green fluorescent protein is not the endpoint of most studies but the proof step. It allows researchers to say, yes, the new gene is there, the cell is making the protein, the protein is working and will probably work with other proteins.

AI is forcing benchmarks

When researchers are hunting for new proteins to use as enzymes, treatments or materials, protein language models and other generative AI methods can propose huge numbers of plausible protein sequences for them to test. While some AI-designed proteins do work in the lab and can help reduce trial and error, many candidate proteins fail.

Fluorescent proteins can be a useful stress test for protein language models. The hardest part of using AI to generate proteins is proving that the sequences it suggests can become a properly folded, working protein.

Green fluorescent protein makes that proof straightforward because fluorescence allows you to quickly see that the protein has folded correctly. You can predict the brightness, stability or color of fluorescent proteins, then directly check whether the AI-generated protein matches. Like a mouse study that hints a drug might work in humans, green fluorescent protein doesn’t guarantee an AI model will succeed on every protein, but it’s a quick, widely trusted sign that the design pipeline is doing something right.

Row of test tubes with neon liquids of various colors glowing in the black light
Fluorescence proteins make experimentation visual.
Erik A. Rodriguez/Wikimedia Commons, CC BY-SA

Calling green fluorescent protein a model protein would also improve how biology is taught. Like classic model organisms, green fluorescent protein is safe and visual. It is also forgiving, producing a clear, fluorescent signal even when student study designs aren’t perfect.

These traits make it an educational gateway to ideas such as gene expression, protein folding and bioengineering. It can turn an abstract concept into something you can see in a test tube or under a microscope.

Model organisms work because scientific communities agreed to build around common reference points. I believe protein science is now vast enough to need the same, and naming green fluorescent protein as a model protein could make it easier to connect discoveries, teach students and assess new tools.

The glow, in other words, can still guide scientists – not just by dazzling, but by helping the whole field add up.

The Conversation

Marc Zimmer received funding from NIH to research fluorescent proteins.

ref. 1 protein to rule them all – why crowning the protein that makes jellyfish glow green as a model can help scientists streamline biology – https://theconversation.com/1-protein-to-rule-them-all-why-crowning-the-protein-that-makes-jellyfish-glow-green-as-a-model-can-help-scientists-streamline-biology-274385