Élévation du niveau de la mer : comment « traduire » la science pour la rendre accessible et utile à tous ?

Source: The Conversation – in French – By Xénia Philippenko, Maîtresse de conférences en Géographie humaine, Université Littoral Côte d’Opale

À quelle hauteur la mer va-t-elle s’élever à cause du changement climatique ? On peut répondre à cette question en moyenne, avec des estimations et en prenant des hypothèses, mais fournir une réponse précise à l’échelle d’une commune littorale donnée n’a rien d’évident. Plutôt que de répondre par les chiffres, certains projets misent sur d’autres outils, mêlant pédagogie, interactivité et narration.


L’océan fait partie des milieux les plus impactés par le changement climatique. L’élévation du niveau de la mer, en particulier, soumet les populations côtières à des défis toujours plus importants. Par exemple, la salinisation des sols, des sous-sols et des nappes phréatiques ou l’augmentation des risques du submersion sur les littoraux.

En France, de nombreux élus, gestionnaires, entreprises ou habitants du littoral se questionnent sur l’ampleur du phénomène : de combien de centimètres le niveau de la mer va-t-il monter ?

Or, cette hausse dépend de nombreux facteurs. Les scientifiques se demandent comment expliquer un phénomène aussi complexe et entouré d’incertitudes. Comment traduire les données issues des modèles climatiques en outils compréhensibles, utiles et engageants pour le grand public, les décideurs, ou les enseignants ?

C’est le défi que relèvent de nombreux chercheurs et communicants, en développant des dispositifs de « traduction des données », ou data translation : rendre lisible la science sans la trahir.

Le projet européen PROTECT, auquel nous avons participé, porte sur la cryosphère continentale (l’ensemble des glaces sur les continents) et l’élévation du niveau de la mer.

Le site interactif Sea Level Projection Tool, développé dans ce cadre, illustre parfaitement ce concept. Produit par une équipe pluridisciplinaire de scientifiques, informaticiens, communicants, designers et illustrateurs, et rédigé en anglais pour s’adresser à un large public européen et international, il s’appuie sur trois approches complémentaires : la pédagogie, l’interactivité et la narration concrète.

Expliquer avec pédagogie l’élévation du niveau de la mer

Le niveau de la mer évolue sous l’effet de nombreux facteurs. Certains sont environnementaux et directement liés au changement climatique : la fonte des glaciers et des calottes glaciaires (ces vastes masses de glace qui recouvrent des régions entières, comme le Groenland ou l’Antarctique), ainsi que la dilatation thermique des océans provoquée par la hausse des températures entraînent une augmentation du volume de l’eau.

D’autres facteurs sont d’ordre géologique, comme l’affaissement ou le soulèvement localisé des terres émergées. Les causes climatiques, enfin, dépendent directement des décisions politiques : selon que l’on s’oriente vers une transition avec moins d’émissions ou bien vers un futur qui priorise la croissance économique, les trajectoires futures du niveau de la mer varieront considérablement.

Le site Sea Level Projection Tool propose d’expliquer ces différents phénomènes dans un glossaire illustré. Celui-ci s’appuie sur les définitions du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), mais il propose également d’autres formats plus facilement compréhensibles pour le grand public.

Une illustratrice spécialisée en sciences, Clémence Foucher, a réalisé des visuels facilitant la compréhension des phénomènes liés à l’élévation du niveau de la mer. Par exemple, la dilatation thermique (c’est-à-dire, le fait que la hausse de température engendre une augmentation du volume de l’eau) ou la fonte des glaciers et des calottes glaciaires.

Illustrations du processus de perte de masse glaciaire par décharge, au Groenland.
Clémence Foucher/Sea Level Projection Tool, Fourni par l’auteur

Ces illustrations nourrissent un cours illustré où l’on découvre les principaux contributeurs aux variations du niveau marin ainsi que les processus physiques associés – fonte, vêlage (séparation d’une masse de glace formant des icebergs), etc.

À chaque fois que cela est possible, une vidéo explicative est également proposée pour approfondir le sujet en moins de cinq minutes.




À lire aussi :
Une nouvelle méthode pour évaluer l’élévation du niveau de la mer


Développer l’aspect ludique et interactif

Pour mieux comprendre les causes et les impacts de la montée du niveau de la mer, le site propose un outil interactif qui permet à chacun de simuler les effets de différentes composantes : fonte des glaciers, expansion thermique des océans, etc. Chacun de ces phénomènes affecte le niveau marin de façon différente selon les régions du globe.

Par exemple, la fonte du Groenland provoque une redistribution de masse si importante qu’elle modifie la gravité terrestre, entraînant une montée des eaux plus marquée dans des régions éloignées de la source de fonte.

De même, certaines zones, comme le nord de l’Europe, s’élèvent encore aujourd’hui sous l’effet de la fonte des glaces en Europe à la fin de la dernière glaciation, tandis que d’autres, comme certaines côtes américaines, s’enfoncent.

En jouant avec ces différents paramètres, les utilisateurs peuvent explorer comment leurs effets se combinent et pourquoi certaines zones sont plus touchées que d’autres. Une manière ludique et pédagogique de s’approprier une réalité complexe, aux conséquences très concrètes.

Des narratifs pour raconter l’impact de la montée des eaux

Comprendre l’élévation du niveau de la mer est un premier pas important. Mais cela reste souvent déconnecté de la réalité des individus, qui ont du mal à se représenter ses conséquences concrètes.

Une section du site propose ainsi des cas fictifs, s’inspirant de situations réellement vécues dans trois pays différents : la France, les Pays-Bas et les Maldives.

Les conséquences liées à l’élévation du niveau de la mer sont assez similaires quelle que soit la région du monde (inondations, érosion, salinisation des sols et des nappes d’eau), mais chaque pays fait face à des défis particuliers et choisit de s’y adapter de manière différente.

Les scientifiques distinguent plusieurs types de mesures d’adaptation à l’élévation du niveau de la mer :

Illustrations de différentes mesures d’adaptation côtières.
Clémence Foucher/Sea Level Projection Tool, Fourni par l’auteur

Les trois cas d’études choisis reprennent le même format : une présentation des enjeux (infrastructures, habitations, activités économiques, etc.), les choix de scénarios d’élévation du niveau de la mer – à court, moyen ou long terme et plus ou moins pessimiste – et enfin les solutions d’adaptation envisagées ou déjà mise en place.

Aux Pays-Bas par exemple, les enjeux sont très forts : un quart du territoire étant déjà sous le niveau marin et la culture de lutte contre la mer est ancienne. Le choix est donc fait de protéger les espaces littoraux par de lourdes infrastructures, comme des barrières estuariennes. Ces infrastructures sont tout à la fois des écluses, des ponts, des digues et des routes.

Illustration d’une infrastructure de grande envergure pour protéger un large éventail d’activités.
Clémence Foucher/Sea Level Projection Tool, Fourni par l’auteur

Aux Maldives, la survie du pays insulaire est menacée face à l’élévation du niveau de la mer. De nombreuses solutions se développent : protection par des digues, accommodation des bâtiments, construction de nouvelles îles plus hautes, voire de maisons flottantes.

En France, dans certains territoires, les enjeux restent relativement limités ; ce qui permet d’ouvrir des espaces à la mer en reculant les infrastructures. Par exemple, la commune de Quiberville-sur-Mer, recule son camping pour le mettre à l’abri des inondations.

Ces trois exemples illustrent la diversité des situations, ainsi que la nécessité de bien comprendre le phénomène d’élévation du niveau de la mer et de choisir le scénario adapté à sa situation pour déterminer les mesures d’adaptation.




À lire aussi :
Élévation du niveau de la mer : quels littoraux voulons-nous pour demain ?


Comprendre pour mieux agir face

Face à un phénomène global aux causes multiples et aux conséquences variables en fonction des régions, la compréhension de l’élévation du niveau de la mer ne saurait se limiter à une seule courbe ou à quelques chiffres. Elle nécessite d’explorer des données complexes, d’articuler des scénarios incertains, et surtout de rendre ces connaissances accessibles à celles et ceux qui devront s’y adapter.

Le Sea Level Projection Tool incarne cette démarche de data translation, en combinant rigueur scientifique, narration accessible, interactivité et dimension territoriale. Il s’adresse aussi bien aux citoyens curieux qu’aux enseignants, aux décideurs ou aux jeunes générations, en leur offrant les clés pour mieux comprendre les choix qui s’offrent à nous. Car plus que jamais, comprendre le changement, c’est déjà s’y préparer.


Les auteurs adressent leurs remerciements à Aimée Slangen, à l’équipe informatique du BRGM et à Clémence Foucher.

The Conversation

Xénia Philippenko a reçu des financement du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Anne Chapuis a reçu des financement du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gaël Durand a reçu des financements du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Gonéri Le Cozannet a reçu des financements du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

Rémi Thiéblemont a reçu des financements du programme de recherche et d’innovation Horizon 2020 de l’Union européenne dans le cadre de la convention de subvention n° 869304, dans le cadre du programme de recherche PROTECT.

ref. Élévation du niveau de la mer : comment « traduire » la science pour la rendre accessible et utile à tous ? – https://theconversation.com/elevation-du-niveau-de-la-mer-comment-traduire-la-science-pour-la-rendre-accessible-et-utile-a-tous-258723

Des déchets de crevette pour une électronique plus écoresponsable ?

Source: The Conversation – in French – By Yann Chevolot, Chercheur chimie et nanotechnologies pour la santé et environnement, Centrale Lyon

Avec l’explosion du numérique, des objets connectés et de l’intelligence artificielle, la production de composants électroniques poursuit sa croissance. La fabrication de ces composants recourt à des techniques de fabrication complexes qui ont pour objet de sculpter la matière à l’échelle de quelques micromètres à quelques nanomètres, soit environ l’équivalent du centième au millième du diamètre d’un cheveu.

L’impact environnemental de ces procédés de fabrication est aujourd’hui estimé entre 360 et 600  mégatonnes équivalent CO2 par an dans le monde. Les chercheurs visent à réduire cet impact en s’attaquant aux différentes étapes de fabrication des produits électroniques.


Les procédés de fabrication en microélectronique requièrent l’emploi de matériaux et solvants pétrosourcés – c’est-à-dire issus de ressources fossiles comme le pétrole. Et certains de ces matériaux comportent des composés chimiques classés comme mutagènes, cancérigènes ou reprotoxiques. Pour des raisons économiques, réglementaires, écologiques et de sécurité, les acteurs du domaine soulignent leur volonté d’accentuer le développement de procédés plus respectueux de l’environnement et moins toxiques. De plus, les projections sur la raréfaction du pétrole imposent d’explorer des matériaux alternatifs aux matériaux pétrosourcés – un domaine que l’on appelle la « chimie verte ».

Dans ce contexte, différents matériaux biosourcés (à savoir, des matériaux issus partiellement ou totalement de la biomasse) et hydrosolubles sont étudiés comme une alternative aux matériaux pétrosourcés. Par exemple, la protéine de la soie ou les protéines du blanc d’œuf, deux matériaux appartenant à la famille des polymères (matériaux constitués de molécules de tailles importantes, aussi appelées « macromolécules ») ont été proposés comme résine de lithographie. Cependant, ces polymères biosourcés possèdent des limitations pratiques par exemple être en compétition avec l’alimentation humaine pour ce qui concerne le blanc d’œuf.




À lire aussi :
Comment rendre l’électronique plus soutenable ?


Dans nos travaux, nous explorons le potentiel du chitosane, un matériau polymère naturel produit aujourd’hui à l’échelle industrielle à partir de la chitine, que l’on extrait principalement de déchets agroalimentaires, comme les carapaces de crevettes et de crabes, les endosquelettes de seiches et de calmars, et certains champignons.

Nous avons montré que le chitosane est compatible avec une ligne de production pilote semi-industrielle de microélectronique. L’analyse du cycle de vie du procédé que nous proposons montre une réduction potentielle de 50 % de l’impact environnemental par rapport aux résines conventionnelles lors de la réalisation d’étapes de lithographie-gravure similaires.

La lithographie, processus clé de la fabrication des composants électroniques

Par exemple, aujourd’hui, la fabrication d’un transistor nécessite plusieurs centaines d’étapes (entre 300 et 1 000 par puce suivant la nature du composant).

Parmi ces étapes, les étapes de lithographie permettent de dessiner les motifs des composants à l’échelle micro et nanométrique. Ce sont celles qui nécessitent le plus de produits chimiques actuellement pétrosourcés et pour certains toxiques.

La lithographie consiste à recouvrir la plaque de silicium avec une couche de résine sensible à la lumière ou à un faisceau d’électrons – comme une pellicule photographique – de manière à y inscrire des motifs de quelques micromètres à quelques nanomètres par interaction localisée du faisceau avec la matière. En optique, plusieurs longueurs d’onde sont utilisées selon la taille des motifs souhaités.

Plus la longueur d’onde est petite, plus la taille des motifs inscriptibles est petite, et on peut aujourd’hui atteindre des résolutions de moins de 5 nanomètres avec une lumière de longueur d’onde de 13,5 nanomètres, afin de répondre à la demande de miniaturisation des composants électroniques, correspondant à la loi de Moore. Celle-ci stipule que le nombre de transistors sur un circuit intégré double environ tous les deux ans, entraînant une augmentation exponentielle des performances des microprocesseurs tout en réduisant leur coût unitaire.

In fine, lors de l’étape de développement – encore une fois comme un terme emprunté à la photographie argentique, c’est la différence de solubilité entre les zones de la résine qui ont été exposées ou non à l’irradiation ultraviolette ou d’électrons qui permet de créer des ouvertures de géométrie définie à travers la résine de chitosane. Là où la résine disparaît, on accède au substrat de silicium (ou autre couche/matériau sous-jacente). On peut ainsi le graver ou y déposer d’autres matériaux (métaux, diélectriques et semiconducteurs), la résine restante jouant alors le rôle de masque de protection temporaire pour les zones non traitées.

Le chitosane, une solution bio pour la résine

Comme mentionné précédemment, le chitosane est produit à partir de la chitine, le deuxième polymère naturel le plus abondant sur Terre (après la cellulose), mais il peut aussi être produit par des procédés de biotechnologies. En plus d’être un matériau renouvelable, il est biocompatible, non écotoxique, biodégradable et soluble en milieu aqueux légèrement acide.

Au milieu de tous ces avantages, son grand intérêt pour la micro- et la nanofabrication est qu’il peut former des films minces, c’est-à-dire des couches de très faibles épaisseurs. Le chitosane peut donc être facilement étalé sur le substrat en silicium pour remplacer la résine pétrosourcée.

Dans le cadre de plusieurs projets de recherche, nous avons démontré que le chitosane était compatible avec toute la gamme des techniques de lithographie : lithographie électronique, optique (193 nanomètres et 248 nanomètres) et même en nanoimpression. Cette dernière technique consiste à presser directement le film de chitosane avec un tampon chauffé possédant des motifs de tailles submicrométriques.

Le chitosane change de structure quand il est irradié

Nous avons mis en évidence que, sous une exposition à des faisceaux d’électrons ou de lumière, une réduction de la longueur des macromolécules du chitosane se produit du fait de la rupture de certaines liaisons chimiques, selon un processus de « dépolymérisation partielle ».

Ceci a pour conséquence de rendre la zone irradiée de la résine soluble dans l’eau pure alors que les zones non touchées par le faisceau restent insolubles.

Au final, les performances de la résine en chitosane sont proches des résines commerciales en conditions environnementales contrôlées (salles blanches de microélectronique), et ce, d’autant mieux sous atmosphère à faible teneur en dioxygène et/ou à faible taux d’humidité relative, des conditions qui peuvent être contrôlées en salle blanche.

Les motifs ont été transférés avec succès par gravure dans la silice et le silicium pour atteindre des motifs de moins de 50 nanomètres en écriture électronique.

L’amélioration de la résolution constitue un axe de recherche en cours dans notre consortium pour atteindre les standards des résines de référence d’autant plus que l’industrie est en quête de solutions alternatives aux résines classiques pour répondre aux enjeux environnementaux, économiques et technologiques actuels. Les résines biosourcées peuvent être une réelle alternative à partir du moment où elles permettront d’atteindre les résolutions obtenues par les résines classiques, à savoir quelques nanomètres.




À lire aussi :
Vos appareils électroniques sont-ils obsolètes de plus en plus rapidement ?


L’expertise que nous avons construite au cours des années, dans le cadre notamment du projet ANR Lithogreen, a permis à notre consortium de laboratoires français d’intégrer le projet européen Horizon Europe Resin Green avec des visées de développement en lithographie optique sur toute la gamme de 365 nanomètres à 13,5 nanomètres et en lithographie électronique à haute résolution — ce qui permettrait d’atteindre des résolutions comparables à celles obtenues actuellement avec les résines pétrosourcées.


Le projet Lithogreen ANR-19-CE43-0009 a été soutenu par l’Agence Nationale de la Recherche (ANR), qui finance en France la recherche sur projets. L’ANR a pour mission de soutenir et de promouvoir le développement de recherches fondamentales et finalisées dans toutes les disciplines, et de renforcer le dialogue entre science et société. Pour en savoir plus, consultez le site de l’ANR.

The Conversation

Yann Chevolot a reçu des financements de l’ANR Lithogreen (ANR-19-CE43-0009).
La Commission européenne et l’initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’initiative commune Chips JU. L’Union européenne et l’autorité chargée de l’octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Didier Léonard a reçu des financements de l’ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l’initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’initiative commune Chips JU. L’Union européenne et l’autorité chargée de l’octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

SERVIN Isabelle a reçu des financements pour le projet ANR Lithogreen

Jean-Louis Leclercq a reçu a reçu des financements de l’ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l’initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’initiative commune Chips JU. L’Union européenne et l’autorité chargée de l’octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Olivier Soppera a reçu des financements de l’ANR Lithogreen (ANR-19-CE43-0009). La Commission européenne et l’initiative commune Chips JU sont remerciées pour leur soutien dans le projet européen Horizon Europe Resin Green. Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union européenne ou de l’initiative commune Chips JU. L’Union européenne et l’autorité chargée de l’octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

Stéphane Trombotto a reçu des financements de l’ANR pour le projet Lithogreen (ANR-19-CE43-0009) et de l’Union Européenne et Chips JU pour le projet Resin Green (https://resingreen.eu).
Les points de vue et les opinions exprimés sont ceux des auteurs et ne reflètent pas nécessairement ceux de l’Union Européenne ou Chips JU. L’Union Européenne et l’autorité chargée de l’octroi des subventions ne peuvent être tenues pour responsables de ces opinions.

ref. Des déchets de crevette pour une électronique plus écoresponsable ? – https://theconversation.com/des-dechets-de-crevette-pour-une-electronique-plus-ecoresponsable-259415

Comment le big data révolutionne les sciences sociales

Source: The Conversation – in French – By Nonna Mayer, Directrice de recherche au CNRS/Centre d’études européennes, Sciences Po

Dès la naissance du Web, deux visions s’opposent, l’une voyant dans l’ère du big data la fin des théories explicatives en sciences humaines, l’autre pensant au contraire qu’elle offre une chance de les renouveler en les combinant à la data science. Nico El Nino/Shutterstock

Les traces laissées par les individus sur Internet et sur les réseaux sociaux constituent un gisement de données numériques considérable, le big data. Certains avaient prédit la mort des sciences sociales avec l’irruption de ces données massives. Il semble au contraire que les sciences sociales se transforment et affinent leurs méthodes d’enquête grâce aux données numériques. La prudence reste toutefois de mise, en raison de la non-représentativité des échantillons utilisés et de l’opacité des algorithmes – sans parler des atteintes à la vie privée liées à la captation des données.


Les traces que nous laissons sur les moteurs de recherche, les réseaux sociaux, les sites d’achat en ligne, ainsi que le nombre croissant des objets connectés (smartphones, montres, caméras, thermostats, enceintes, capteurs), nourrissent un fabuleux gisement de données numériques. Il éclaire jusque dans les micro-détails nos comportements quotidiens, nos déplacements, nos modes de consommation, notre santé, nos loisirs, nos centres d’intérêt, nos réseaux de sociabilité, nos opinions politiques et religieuses, sans que nous en ayons toujours conscience. La numérisation accélérée d’archives et documents, jusqu’ici inaccessibles, effectuée par les administrations, les entreprises, les partis, les journaux, les bibliothèques y contribue également.

Il en résulte des données hors norme par leur volume, leur variété et leur vélocité (les « 3 V »), communément appelées le « big data ». Et les moyens de les extraire, coder, quantifier et analyser en quelques clics se sont développés de concert, grâce aux progrès de l’intelligence artificielle (IA). Comme le souligne Dominique Boullier dans son dernier livre ce processus est en train de révolutionner le paysage des sciences sociales, pour le meilleur et pour le pire.

À cet égard deux thèses s’affrontent dès la naissance du Web. Dans un article au titre provocant, « The End of Theory: The Data Deluge Makes the Scientific Method Obsolete », Chris Anderson, rédacteur en chef du magazine Wired consacré aux nouvelles technologies, y voit la mort programmée des sciences sociales. Les corrélations vont remplacer la causalité, point n’est besoin de modèle explicatif ou de théorie unifiée et « les chiffres parlent d’eux-mêmes ». En total désaccord, des chercheurs comme Burt Monroe ou Gary King saluent le potentiel de renouvellement des théories et des méthodes qu’apportent ces données et plaident pour l’hybridation des sciences sociales et de la « data science ».

Dans la même ligne, je donnerai quelques exemples illustrant l’apport du big data, notamment sur des sujets sensibles comme le racisme ou la sexualité, difficiles à saisir dans les enquêtes par sondages ou par entretiens à cause des biais de « désirabilité sociale », soit la tentation face à l’enquêteur ou l’enquêtrice de dissimuler son opinion si elle n’est pas conforme aux normes sociales en vigueur.

Big data et recherche sur le racisme

Le champ des recherches sur le racisme, en particulier le racisme anti-noir, est particulièrement développé aux États-Unis et plusieurs enquêtes par sondage ont tout naturellement voulu mesurer son impact potentiel sur les votes en faveur de Barack Obama aux élections présidentielles de 2008 et 2012. Elles ne donnent pas de résultats probants et un chercheur, Seth Stephens-Davidowitz, a eu l’idée d’utiliser un indicateur indirect de racisme, la proportion des recherches sur Google contenant le mot « nigger(s) » (« nègre(s) ») pendant les quatre ans précédant le scrutin, qu’il a mis en relation avec les votes pour Obama en 2008 et 2012, État par État. Malgré l’interdit qui pèse sur ce terme, il trouve que le « N-word » est googlé en moyenne 7 millions de fois par an. Seule face à son écran, la personne n’a aucune raison de s’autocensurer. Les résultats, après contrôles, sont sans appel. Ils montrent que les États où ce terme est le plus souvent recherché sur Google débordent largement les frontières des États du Sud traditionnellement plus racistes. Et l’usage du mot est négativement corrélé avec le vote pour Obama, lui coûtant en moyenne quatre points de pourcentage aux deux élections. Le racisme anti-noir est bien sous déclaré dans les enquêtes par sondages, et il a eu un impact non négligeable sur les choix électoraux. Un phénomène qui, jusqu’ici, était passé sous les radars.

En France, la Commission nationale consultative des droits de l’homme (CNCDH) fait tous les ans un rapport au premier ministre sur l’état du racisme, de l’antisémitisme et de la xénophobie, en s’appuyant notamment sur le Baromètre racisme pour les opinions, les statistiques fournies par les ministères concernés pour les actes. Mais les discours de haine sur les réseaux sociaux restaient hors de son champ de vision. D’où sa décision, en 2020, de demander au Médialab de Sciences Po, associé au Centre d’études européennes et de politique comparée (Sciences Po) et au Laboratoire interdisciplinaire Sciences-innovations-sociétés (Lisis, Université Gustave-Eiffel) de lancer une étude sur l’antisémitisme en ligne.

L’équipe choisit d’analyser pendant un an les commentaires postés sur les principales chaînes d’information et d’actualité présentes sur YouTube, au nombre de 628. Un corpus de près de deux millions de commentaires est extrait et un algorithme entraîné à détecter l’antisémitisme, y compris sous ses formes les plus allusives. La diffusion de propos antisémites apparaît relativement faible (0, 65 % du total des commentaires). Ce sont les chaînes d’extrême droite qui en abritent la proportion la plus importante, suivies par les chaînes de contre-information et de santé alternative. Les thèmes du complot et de la judéophobie y apparaissent plus présents que l’antisionisme. Les résultats nuancent donc la thèse d’un « nouvel » antisémitisme à base d’antisionisme remplaçant l’ancien et qui serait passé de l’extrême droite à l’extrême gauche. L’enquête a été élargie depuis à d’autres formes de racismes, notamment antimusulmans, au masculinisme et au complotisme.

Big data et recherche sur la sexualité

Le big data est aussi précieux pour aborder les questions du genre et de la sexualité. Régulièrement, l’université française est présentée comme gangrénée par les études sur le genre et l’intersectionnalité, y compris par des ministres.

L’enquête minutieuse menée par le sociologue Étienne Ollion et ses collègues montre qu’il n’en est rien. Analysant la place tenue par la question du genre dans 120 revues de sciences sociales sur un quart de siècle, soit un corpus de 58 000 résumés d’articles, grâce à un modèle d’intelligence artificielle (Large Language Model), l’article montre qu’elle est passée de 9 % en 2001 à 11,4 % du total en 2022. D’une discipline à l’autre, les résultats sont contrastés, la proportion d’article traitant du genre passant de 33,7 % à 36,6 % dans les revues de démographie au sens large, mais de 3,3 % à 5,8 % en science politique. Et ils sont encore majoritairement le fait de femmes. Tandis que les approches intersectionnelles croisant genre et race et/ou classe restent résiduelles (4 % en fin de période).

Marie Bergström, sociologue à l’Ined, a utilisé le big data pour éclairer les ressorts de l’écart d’âge qu’on observe dans les couples hétérosexuels, où l’homme est généralement plus âgé que la femme. Croisant les résultats de l’enquête « Étude des parcours individuels et conjugaux » (Epic), menée par l’Ined et l’Insee en 2012-2014 auprès de 7 800 personnes, interrogées sur leurs préférences en matière d’écart d’âge, avec des données tirées du site de rencontre Meetic (400 000 profils et 25 millions d’emails) renseignant sur les pratiques effectives, elle souligne le décalage entre ce qui se dit et ce qui se fait et les écarts selon le genre.

Au niveau déclaratif, les femmes sont les plus attachées à un écart d’âge au profit du partenaire masculin, d’autant plus qu’elles sont jeunes, tandis que les hommes se disent indifférents à l’âge. Ainsi, 79 % d’entre eux disent qu’ils accepteraient une femme plus âgée alors que 53 % seulement des femmes envisageraient un partenaire plus jeune. Mais sur le site de rencontres, c’est une autre histoire, le décalage étant particulièrement marqué chez les hommes, clairement amateurs de femmes plus jeunes, surtout quand ils vieillissent.

Dangers du big data

Les dangers du big data sont non moins grands : non-représentativité et instabilité des échantillons non construits pour les besoins de la recherche, opacité et défaillance des algorithmes et des modèles, difficultés d’accès aux données, problèmes éthiques, atteintes à la vie privée, problèmes de sécurité (vols, détournement des données), coûts énergétiques exorbitants, domination politique du Nord sur les Sud, et des États-Unis sur le reste de la planète. La prudence est nécessaire et le besoin de régulation est manifeste. Mais on ne peut se priver d’un tel vivier. Et les nouvelles générations de doctorants s’en sont aussitôt emparé.

Un nombre croissant de doctorants utilisent aujourd’hui le big data pour leur thèse et font des émules. Qu’ils s’intéressent au positionnement des partis européens sur le climat ou sur l’immigration, aux politiques énergétiques européennes ou au cadrage médiatique de groupes-cibles, ils arrivent à construire des corpus gigantesques de plusieurs millions de textes (rapports, textes législatifs, posts sur les réseaux sociaux, images, articles de presse, discours parlementaires, communiqués), couvrant plusieurs pays et sur de longues périodes. Pour les analyser, ils recourent au Supervised Learning (apprentissage supervisé), entraînant des modèles d’IA à coder ces textes en fonction de leur question de recherche et de leurs hypothèses. Cela leur permet de revisiter des objets classiques de la science politique avec un regard neuf et sur une tout autre échelle, s’inscrivant dans le courant en plein essor des « sciences sociales augmentées ».


_Cet article est proposé en partenariat avec le colloque « Les propagations, un nouveau paradigme pour les sciences sociales ? » (à Cerisy (Manche), du 25 juillet au 31 juillet 2025).

The Conversation

Nonna Mayer ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Comment le big data révolutionne les sciences sociales – https://theconversation.com/comment-le-big-data-revolutionne-les-sciences-sociales-261794

Ahmed Faras restera dans les mémoires comme un héros du football et un symbole national marocain

Source: The Conversation – in French – By Abderrahim Rharib, Teacher-Researcher of Sports Policy, Université Hassan II Casablanca – AUF

Surnommé Moul Lkoura, qui signifie « le propriétaire du ballon », Ahmed Faras est devenu une véritable icône au Maroc. Le footballeur était un héros pour le peuple, une source de fierté et d’unité nationale.

Dans tout le pays, il était tenu en très haute estime, tant pour ses qualités techniques sur le terrain que pour sa personnalité. À l’annonce de son décès à l’âge de 78 ans, nombreux sont ceux qui ont souligné son humilité, son respect, sa gentillesse et sa modestie. Il est resté une figure du patriotisme au Maroc pendant des décennies, longtemps après la fin de sa carrière.

Une carte marquée dans chaque coin des emblèmes nationaux et footballistiques et représentant le portrait d'un jeune homme vêtu d'un maillot de football rouge.
Carte de football d’Ahmed Faras en 1970.
Panini/Wikimedia Commons

Faras avait également un autre surnom : le Lion de l’Atlas. Il était le capitaine très apprécié des Lions de l’Atlas, l’équipe nationale de football. Il a été sacré Footballeur africain de l’année en 1975. En 2006, il a été sélectionné par la Confédération africaine de football (CAF) comme l’un des 200 meilleurs joueurs africains des 50 dernières années meilleurs footballeurs africains des 50 dernières années, sur la base d’un sondage.

En tant que chercheur spécialisé dans le football et la politique au Maroc, le décès de Faras, tout comme celui de Dolmy (Hassan) d’Amcharrat et d’autres grands noms du football, marque une frontière entre un sport amateur peu rentable au service de la patrie et un sport aujourd’hui façonné par l’économie de marché.

Qui était Ahmed Faras ?

Hadj Ahmed Faras, né le 7 décembre 1946, accordait plus d’importance aux valeurs qu’à l’argent. La preuve en est son refus, en 1973, d’une offre pour rejoindre les rangs du Real Madrid, l’une des plus grandes équipes européennes.

Né et élevé dans une famille modeste à Laâlya, un quartier de la ville de Mohammedia, sur la côte ouest du Maroc, la communauté de Fdala (ancien nom de la ville) n’oubliera jamais que Faras a préféré mettre son talent au service du Sporting Club Chabab Mohammedia.

C’était le club de sa ville natale, où il a débuté sa carrière en 1965 et où il l’a terminée en 1982. Faras était un athlète complet. Si le football l’a rendu célèbre, il était également passionné de basket-ball, de handball, de volley-ball et de saut en longueur.

Mais c’est le football qui lui a valu son surnom d’enfance, « le gaucher », en raison de l’élégance avec laquelle il maniait le ballon du pied gauche.

Jouant dans des équipes de quartier à l’école, il suivait de près le football marocain. C’était l’époque de joueurs comme Hassan Akesbi, Abderrahmane Ben Mahjoub. Insatisfait de son niveau, il rejoint un centre de formation financé par le ministère de la Jeunesse et des Sports afin de concrétiser sa passion pour le football. Au fil des matchs, il se fait de plus en plus remarquer.




Read more:
Morocco will co-host the 2030 World Cup – Palestine and Western Sahara will be burning issues


En 1963, alors qu’il réfléchit encore à une offre de l’Ittihad Mohammedia, il est également approché par le club rival, le Chabab Mohammedia. Ce dernier est prêt à le faire passer directement en équipe première sans passer par les équipes juniors. Jamais satisfait des entraînements collectifs, il s’entraînait également il s’entraîne également seul de manière régulière.

Les moments forts de sa carrière

Ses grandes qualités techniques, son pied gauche magique, son intelligence tactique, sa sagesse et son calme lui ont valu une carrière exemplaire. Joueur polyvalent, capable d’évoluer à presque tous les postes, il s’est surtout illustré au poste d’avant-centre.

En 1970, il fait partie de la première équipe nationale marocaine à se qualifier pour la Coupe du monde de football masculin de la FIFA, au Mexique. Il marque deux buts, assurant ainsi la qualification du Maroc pour les Jeux olympiques de 1972 à Munich. Il continue à marquer des buts lors des Jeux olympiques, inscrivant six réalisations en Coupe d’Afrique des nations (CAN) et six autres lors des matchs de qualification pour la Coupe du monde.

Élu meilleur joueur africain de l’année 1975, il a été capitaine de l’équipe qui a remporté la CAN pour le Maroc en 1976 en Éthiopie. Il a été nommé meilleur joueur du tournoi.

Faras a été le meilleur buteur du championnat national en 1969 et 1973. Il a disputé 94 matchs avec l’équipe nationale entre 1966 et 1979, inscrivant 36 buts au total. Ce qui fait de lui le meilleur buteur de tous les temps. Il a remporté le seul titre de champion du Maroc dU Sporting Club Chabab Mohammédia en 1980, deux Coupes du Trône en 1972 et 1975, la Super Coupe en 1975 et la Coupe des clubs du Maghreb en 1975.

Ses valeurs

Malgré tous ces chiffres impressionnants, Faras n’a jamais été du genre à se vanter de ses exploits. Il tenait à rester respecteux et n’a jamais décliné une invitation destinée à rendre service au monde du football marocain. Comme ses parents, c’était un homme attaché à sa famille qui menait une vie modeste. Faras ne supportait pas d’être loin de Mohammedia et ressentait une immense joie lorsqu’il rentrait chez lui après une tournée.

Son patriotisme était souvent mis en évidence, notamment lors de la CAN 1976 en Éthiopie, Il a joué le tournoi malgré la fièvre typhoïde. Il rappelait souvent à ses coéquipiers que porter le maillot national était une lourde responsabilité. Selon lui, il fallait toujours être à la hauteur des attentes du roi et du peuple marocain.

En tant que capitaine, il ne ménageait aucun effort pour motiver les jeunes joueurs, les aider à s’intégrer dans l’équipe nationale et à jouer avec honneur.

Grâce à ces qualités, Ahmed Faras est devenu un trésor national, l’incarnation des nobles valeurs du sport. Le respect que lui témoignaient les arbitres en était la preuve incontestable.

Moul Lkoura est décédé le 16 juillet, alors que les Marocains espéraient qu’il assisterait à la Coupe d’Afrique des nations féminine organisée par le Maroc. Ils nourrissaient l’espoir qu’il assiste à un nouveau sacre du Maroc, le premier depuis celui de 1976 auquel il avait contribué.

The Conversation

Abderrahim Rharib does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Ahmed Faras restera dans les mémoires comme un héros du football et un symbole national marocain – https://theconversation.com/ahmed-faras-restera-dans-les-memoires-comme-un-heros-du-football-et-un-symbole-national-marocain-262287

Les minerais africains sont échangés contre la sécurité : pourquoi c’est une mauvaise idée

Source: The Conversation – in French – By Hanri Mostert, SARChI Chair for Mineral Law in Africa, University of Cape Town

Un accord de paix, négocié par les États-Unis entre la République démocratique du Congo (RDC) et le Rwanda, prévoit un arrangement préoccupant. L’une des parties cède ses ressources minérales à une grande puissance en échange de promesses floues de sécurité.

L’accord de paix, signé en juin 2025, vise à mettre fin à trois décennies de conflit entre la RDC et le Rwanda.

Un élément clé de l’accord engage les deux pays à développer un cadre d’intégration économique régionale. Cet arrangement prévoit une coopération élargie entre la RDC, le Rwanda, le gouvernement américain et les investisseurs américains pour établir des “chaînes d’approvisionnement en minerais transparentes et formalisées”.

Malgré ses immenses richesses minérales, la RDC figure parmi les cinq pays les plus pauvres du monde. Elle cherche à attirer les investissements américains dans son secteur minier.

De leur côté, les Etats-Unis promettent un programme d’investissement de plusieurs milliards de dollars pour sécuriser leurs chaînes d’approvisionnement en minerais sur ce territoire traumatisé et appauvri.

La paix promise par l’accord de juin 2025 dépend ainsi de l’approvisionnement des États-Unis en minerais, en échange d’une présence militaire puissante, mais définie de manière vague, de la part de Washington.

L’accord de paix établit en outre un comité de mixte surveillance composé de représentants de l’Union africaine, du Qatar et des États-Unis, chargé de recevoir les plaintes et de résoudre les différends entre la RDC et le Rwanda.

Mais au-delà de ce comité mixte de surveillance, l’accord de paix ne prévoit aucune obligation spécifique en matière de sécurité pour les États-Unis.

Les relations entre la RDC et le Rwanda sont marquées par des guerres et des tensions depuis les première (1996-1997) et deuxième (1998-2003) guerres particulièrement sanglantes du Congo. Ces conflits ont alimenté la rivalité, l’exploitation et la violence armée.

Ce dernier accord de paix instaure un arrangement de type « ressources contre sécurité ». De tels accords ne sont pas nouveaux en Afrique. Ils ont fait leur apparition au début des années 2000 sous la forme de transactions « ressources contre infrastructures ». Dans ce type d’accord, un État étranger s’engage à construire des infrastructures économiques et sociales (routes, ports, aéroports, hôpitaux) dans un État africain. En échange, il obtient une participation importante dans une société minière publique ou un accès préférentiel aux ressources minérales du pays hôte.

Nous étudions le droit minier et la gouvernance en Afrique depuis plus de 20 ans. La question qui se pose aujourd’hui est de savoir si un accord de type « ressources contre sécurité » négocié par les États-Unis permettra à la RDC de mieux tirer profit de ses ressources.

Nos recherches sur l’exploitation minière, le développement et la durabilité nous font penser que cela est peu probable.

En effet, l’échange de ressources contre la sécurité est la dernière version d’une approche de troc de ressources que la Chine et la Russie ont mise en place dans des pays tels que l’Angola, la République centrafricaine et la RDC.

Le troc de ressources en Afrique a affaibli la souveraineté et le pouvoir de négociation des nations riches en minerais telles que la RDC et l’Angola.

En outre, ces accords sont moins transparents et plus complexes que les accords antérieurs de troc de ressources.

Les failles sécuritaires de la RDC

La RDC est dotée d’importants gisements de minerais essentiels tels que le cobalt, le cuivre, le lithium, le manganèse et le tantale. Ces minerais sont les éléments constitutifs des technologies du XXIe siècle : intelligence artificielle, véhicules électriques, énergie éolienne et matériel de sécurité militaire. Le Rwanda est moins riche en minerais que son voisin, mais il est le troisième producteur mondial de tantale, utilisé dans l’électronique, l’aérospatiale et les appareils médicaux.

Depuis près de 30 ans, les minerais alimentent les conflits et les violences extrêmes, en particulier dans l’est de la RDC. Le tungstène, le tantale et l’or (appelés « 3TG ») financent et alimentent les conflits. Les forces gouvernementales et environ 130 groupes armés se disputent le contrôle de sites miniers lucratifs. Plusieurs rapports et études ont accusé les voisins de la RDC – le Rwanda et l’Ouganda – de soutenir l’extraction illégale des 3TG dans cette région.

Le gouvernement de la RDC n’arrive pas à imposer la sécurité sur son vaste territoire (2,3 millions de kilomètres carrés peuplé de (109 millions d’habitants, issus de 250 groupes ethniques. Le manque de ressources, la corruption et des défis logistiques affaiblissent ses forces armées.

Ce contexte rend le soutien militaire des États-Unis extrêmement attractif. Mais nos recherches montrent que cet appui cache de nombreux pièges.

Quels États risquent de perdre ?

Les accords de type “ressources contre infrastructures” ou “ressources contre sécurité” offrent souvent des avantages à court terme : financements, stabilité, reconnaissance internationale. Mais ils ont un coût à long terme : la perte de contrôle sur les ressources nationales.

Voici comment cela se passe :

L’Afrique regorge d’exemples de pertes, partielles ou totales, de souveraineté liées à ce type d’accords. Par exemple, en 2004, l’Angola a contracté un prêt de 2 milliards de dollars adossé au pétrole auprès de la China Eximbank.

Ce prêt était remboursable par des livraisons mensuelles de pétrole, dont les recettes étaient versées sur des comptes contrôlés par la Chine. La conception du prêt privait les autorités angolaises de tout pouvoir de décision sur cette source de revenus avant même que le pétrole ne soit extrait.

Ces accords contribuent également à diluer les responsabilités. Ils impliquent souvent plusieurs ministères (tels que la défense, les mines et le commerce), ce qui empêche tout contrôle ou redevabilité. Cela favorise la captation des ressources par les élites. Des personnalités influentes peuvent détourner les accords à leur profit personnel.

En RDC, cela a donné naissance à une kleptocratie violente, où les richesses issues des ressources naturelles sont systématiquement détournées au détriment de la population.

Enfin, ces accords risquent d’aggraver les traumatismes liés à l’extraction : déplacements forcés des communautés, dégradations de l’environnement, pertes de moyens de subsistance et tensions sociales.

Ces problèmes ne sont pas nouveaux. Mais en les liant à la sécurité ou aux infrastructures, ils cessent d’être temporaires et s’installent dans la durée.

Ce qui doit changer

Les minerais critiques sont dits “critiques” parce qu’ils sont difficiles à extraire ou à remplacer.

De plus, leurs chaînes d’approvisionnement sont stratégiquement vulnérables et politiquement exposés. Celui qui contrôle ces minéraux contrôle l’avenir. L’Afrique doit veiller à ne pas brader cet avenir.

Dans un monde où les minerais critiques redessinent les rapports de force, les États africains ne doivent pas sous-estimer la valeur stratégique de leurs ressources. Ils disposent d’un levier puissant.

Mais ce levier n’a d’effet que s’il est utilisé avec stratégie. Pour ce faire, il faut :

  • investir dans le renforcement des institutions et des capacités juridiques afin de négocier de meilleurs accords

  • exiger la création et la valeur ajoutée locales

  • exiger la transparence et le contrôle parlementaire des accords relatifs aux minéraux

  • refuser les accords qui ne respectent pas les normes en matière de droits humains, d’environnement ou de souveraineté.

L’Afrique dispose des ressources. Elle doit préserver ce levier de pouvoir qu’elles lui confèrent.

The Conversation

Hanri Mostert est financée par la National Research Foundation (NRF) d’Afrique du Sud. Elle est membre du groupe d’experts sur l’expropriation et membre du comité directeur du groupe consultatif académique (AAG) de l’Association internationale du barreau (IBA) dans le secteur du droit de l’énergie, de l’environnement, des ressources et des infrastructures (SEERIL).

Tracy-Lynn Field est financée par la Fondation Claude Leon. Elle est directrice non exécutive de la Wildlife and Environment Society of South Africa.

ref. Les minerais africains sont échangés contre la sécurité : pourquoi c’est une mauvaise idée – https://theconversation.com/les-minerais-africains-sont-echanges-contre-la-securite-pourquoi-cest-une-mauvaise-idee-261875

Yosemite embodies the long war over US national park privatization

Source: The Conversation – USA (2) – By Michael Childers, Associate Professor of History, Colorado State University

The Ahwahnee is a privately run hotel inside Yosemite National Park. George Rose/Getty Images

The Trump administration’s cuts to the National Park Service’s budget and staffing have raised concerns among park advocates and the public that the administration is aiming to further privatize the national parks.

The nation has a long history of similar efforts, including a wildly unpopular 1980 attempt by Reagan administration Interior Secretary James Watt to promote development and expand private concessions in the parks. But debate over using public national park land for private profit dates back more than a century before that.

As I explain in my forthcoming book, no park has played a more central role in that debate than Yosemite, in California.

Early concerns

In early 1864, Central American Steamship Transit Company representative Israel Ward Raymond wrote a letter to John Conness, a U.S. senator from California, urging the government to move swiftly to preserve the Yosemite Valley and the Mariposa Grove of giant sequoia trees to prevent them from falling into private hands. Five months later, President Abraham Lincoln signed the Yosemite Grant Act, ceding the valley and the grove to the state of California, “upon the express conditions that the premises shall be held for public use, resort, and recreation.” This was years before Yellowstone became the first federal land designated a national park in 1872.

A sepia-toned image of a lake with massive trees and even bigger mountains behind it.
For centuries, the natural beauty of the Yosemite Valley has impressed visitors.
Sepia Times/Universal Images Group via Getty Images

Controversy arose quickly at Yosemite. Two men – James Lamon and James Hutchings – had claimed land in the valley before the federal government gave it to California. Both began commercial operations, Lamon growing cash crops and Hutchings operating a hotel.

California said their businesses threatened the state’s ability to develop roads and trails in Yosemite by competing for tourist dollars. A legal battle ensued and was not resolved until an 1872 U.S. Supreme Court ruling found that the men’s land claims had not been fully validated according to the procedures of the time. The California legislature paid both men compensation for their land, and both left the park.

In 1890, neighboring parts of the Yosemite area became America’s third national park – and in 1906, the federal government again took possession of the Yosemite Valley itself and the Mariposa Grove, specifically to incorporate them into an expansion of the national park.

Development rights

Yet, as my research has found, the role of private interests in the park remained unsolved. Private companies under contract to the National Park Service have long provided needed amenities such as lodging and food within the national parks. But questions over what is acceptable in national parks in the pursuit of profit have shaped Yosemite’s history for generations.

In 1925, I found, the question centered on the right to build the first gas station inside the park, in Yosemite Valley. Two private businesses, the Curry Camping Company and the Yosemite National Park Company, had long competed for tourist dollars within the park. Each wanted to build a gas station to boost profits.

Frustrated over the need to decide, National Park Service Director Horace Albright ordered the rival firms to simplify management of the park’s concessions. The companies merged, and the newly formed Yosemite Park and Curry Company was granted the exclusive rights to run lodges, restaurants and other facilities within the park, including the new gas station.

But as I found in my research, the park service and the concessions company did not always see eye to eye on the purpose of the park. The conflict between profit and preservation is perhaps most clearly illustrated by the construction of a ski area within the park in the early 1930s. The park service initially opposed the development of Badger Pass Ski Area as not conducive to the national park ideal, but the Yosemite Park and Curry Company insisted it was key to boosting winter use of the park.

In 1973, the Music Corporation of America, an entertainment conglomerate, bought the Yosemite Park and Curry Company. The company already had a tourist attraction operating near Hollywood, where visitors could pay to tour movie sets, but had not yet changed its name to Universal Studios or launched major theme parks in Florida and California. Its purchase of the park’s concessions set off a firestorm of controversy over fears of turning Yosemite into a theme park.

That didn’t happen, but annual park visitor numbers climbed from 2.5 million to 3.8 million over the 20 years MCA ran the concessions, which sparked concerns about development and overcrowding in the park. Conservationists argued the park service had allowed the corporate giant to promote and develop the park in ways that threatened the very aspects of the park most people came to enjoy.

With three restaurants, two service stations with a total of 15 gas pumps, two cafeterias, two grocery stores, seven souvenir shops, a delicatessen, a bank, a skating rink, three swimming pools, a golf course, two tennis courts, kennels, a barbershop, a beauty shop, Badger Pass Ski Area and three lodges, the Yosemite Valley was a busy commercial district. Critics argued that such development contradicted the park service’s mandate to leave national parks unimpaired for the enjoyment of future generations.

A few people stand in a large gap within a tree trunk while other people stand nearby.
Crowds gather at some of Yosemite’s most popular sites, such as the California Tunnel Tree.
David McNew/AFP via Getty Images

Who owns the names?

Falling profits and consolidation within the music industry led MCA to sell its concessions rights in Yosemite in 1993. The Delaware North Companies, a global hospitality corporation, took over and ran the park’s concessions until 2016, when it sold the rights to Aramark.

But in that sale, the question of public resources and private profits arose again. Delaware North demanded $51 million in compensation for Aramark continuing to use the names of several historic properties within the park, such as the Ahwahnee, a hotel, and Curry Village, another group of visitor accommodations. The company claimed those names were a part of its assets under its contract with the park service.

The park service rejected the claim, saying the names, which dated back more than a century, belonged to the American people. But to avoid legal problems during the transition, the agency temporarily renamed several sites, including calling the Ahwahnee the Majestic Yosemite Hotel and changing Curry Village to Half Dome Village. Public outrage erupted, denouncing the claim by Delaware North as commercial overreach that threatened to distort Yosemite’s heritage. In 2019, the park service and Aramark agreed to pay Delaware North a total of $12 million to settle the dispute, and the original names were restored.

Protesters unfurl an upside-down U.S. flag from the top of El Capitan in Yosemite National Park in February 2025, protesting Trump administration changes to the National Park Service.

Renewed interest in commercial efforts

In June 2025, Yosemite again took center stage in the dispute over the role of federal funding versus private interests at the start of the second Trump administration when a group of climbers unfurled an American flag upside down off El Capitan in protest of the administration’s cuts in personnel and slashing of the park service’s budget.

Conservationists, including former National Park Service Director Jonathan Jarvis, argued that by defunding the park service and laying off as much as a quarter of its workforce, the Trump administration was “laying the groundwork to privatize” the national parks by allowing corporate interests more access to public lands. Those concerns echo ones raised during the first Trump administration, when the White House argued privatization would better serve the American public by improving visitor experiences and saving federal dollars.

Whichever side prevails in the short term, the debate over the role of private interests within national parks like Yosemite will undoubtedly continue.

The Conversation

Michael Childers does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Yosemite embodies the long war over US national park privatization – https://theconversation.com/yosemite-embodies-the-long-war-over-us-national-park-privatization-261133

Black teachers are key mentors for Philly high school seniors navigating college decisions

Source: The Conversation – USA (2) – By Joseph Sageman, Postdoctoral Researcher in Sociology, University of Pennsylvania

In Pennsylvania, nearly 15% of students are Black, but less than 4% of teachers are. JohnnyGreig/E+ Collection via Getty Images

Zikia, a 12th grader in Philadelphia, was stressing over where she would attend college in the fall. Her charter school’s college decision ceremony was the next day, and she was torn between her two top choices.

At a crossroads, she reached out to her favorite teacher, the only Black educator on her course schedule. “I texted him at nighttime,” she recalled. “I didn’t feel like I could do that with my other teachers.”

In my research
on college and career readiness, I did not initially set out to study the impact of Black teachers, but students like Zikia readily brought up the topic.

In interviews, students insisted on the importance of having Black educators. They consistently named their Black teachers and counselors as the most influential adults in their planning for life after graduation.

Black educators, though, are severely underrepresented in the local teaching workforce. At Zikia’s school, over 75% of students are Black compared to only about 15% of teachers.

The picture is just as striking in Pennsylvania as a whole. Statewide, the share of Black students is four times the share of Black teachers – 14.5% of students are Black, while only 3.7% of teachers are. A majority of public schools in Pennsylvania do not employ a single teacher of color despite serving racially diverse communities.

These statistics are particularly concerning because strong evidence suggests that minority students benefit greatly from working with same-race teachers.

Over the past two decades, a wave of studies from economists and education scholars have documented that when Black students are assigned to Black teachers, their math and reading scores improve, their rates of absenteeism and suspensions drop, and over the long run, they are more likely to enroll in honors classes, complete high school and go to college.

This research is mostly quantitative and does more to establish that Black teachers are effective than explain why they are able to deliver such impressive results.

To answer this latter question, I went directly to the source.

I conducted interviews with roughly 100 Philadelphia 12th graders, asking them how they came to trust and depend on Black educators when weighing one of the most consequential decisions of their lives: whether and where to go to college. I spoke with students at five city high schools, including district-run and charter schools, as well as some of the teachers and counselors involved in their college decisions.

Zikia and the other names used in this story are pseudonyms to protect the confidentiality of research participants.

Inspiration, empathy and insight

The presence of Black educators mattered to students for several reasons.

Some of my respondents felt inspired by seeing Black people in school leadership positions. LaMont, for instance, said that taking classes from Black teachers motivated him: “Just to see success is achievable. A teacher is something in life. And it shows that people that look like me are able to overcome something. Having Black teachers gives you a sense of confidence.”

LaMont’s seeing his own identity and background reflected in his teachers is what sociologists and political scientists call descriptive representation. His classmates agreed that it was important to have teachers who looked like them. Their connection, they insisted, was more than skin deep. Most of them gravitated to Black teachers because of how those teachers did their jobs and advocated for minority students, a concept called substantive representation.

For instance, many students felt most comfortable asking for help from Black teachers because they regarded them as more empathetic listeners and felt they were invested in their holistic well-being, not just in their grades or academic performance.

When I asked Ramir to tell me about the teachers he had strong relationships with, he offered a typical answer: “Most of them are African American,” he said. “But it’s not even just about that. I like a teacher who tries to understand you for who you are. Not look at you as a student but as a human being and build with you.”

Students also credited Black teachers with making them feel like they belonged at school. They sought out advice from teachers who believed in their potential and held them to high academic and behavioral standards. These qualities were by no means unique to Black teachers, but white teachers sometimes found it difficult to balance authority with warmth in their relationships with students.

“There are some teachers that act like siblings and some that act like parents,” said Emily, a white social studies teacher. “And it’s very rare that a white teacher can act like a parent and have the kids still like them.”

Black educators also had culturally relevant insights into college that students valued highly. They often had deeper knowledge of local historically Black colleges and universities, or they could speak to the experience of being a racial minority at a predominantly white institution. Students valued guidance more when it came from a source they felt was relatable.

These findings suggest that Black educators are effective not only because of shared identity or experiences, but also because of the skills and dispositions they bring into the classroom: proactively building relationships, coupling high expectations with high levels of support, and bringing schoolwork to life. As a result, minority students held out hope not only for more representation in the classroom but also that all their teachers – regardless of race – would integrate these practices into their tool kits.

Read more of our stories about Philadelphia.

The Conversation

Joseph Sageman does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Black teachers are key mentors for Philly high school seniors navigating college decisions – https://theconversation.com/black-teachers-are-key-mentors-for-philly-high-school-seniors-navigating-college-decisions-261732

What is personalized pricing, and how do I avoid it?

Source: The Conversation – USA (2) – By Jay L. Zagorsky, Associate Professor Questrom School of Business, Boston University

Recently, Delta Air Lines announced it would expand its use of artificial intelligence to provide individualized prices to customers. This move sparked concern among flyers and politicians. But Delta isn’t the only business interested in using AI this way. Personalized pricing has already spread across a range of industries, from finance to online gaming.

Customized pricing – where each customer receives a different price for the same product – is a holy grail for businesses because it boosts profits. With customized pricing, free-spending people pay more while the price-sensitive pay less. Just as clothes can be tailored to each person, custom pricing fits each person’s ability and desire to pay.

I am a professor who teaches business school students how to set prices. My latest book, “The Power of Cash: Why Using Paper Money is Good for You and Society,” highlights problems with custom pricing. Specifically, I’m worried that AI pricing models lack transparency and could unfairly take advantage of financially unsophisticated people.

The history of custom pricing

For much of history, customized pricing was the normal way things happened. In the past, business owners sized up each customer and then bargained face-to-face. The price paid depended on the buyer’s and seller’s bargaining skills – and desperation.

An old joke illustrates this process. Once, a very rich man was riding in his carriage at breakfast time. Hungry, he told his driver to stop at the next restaurant. He went inside, ordered some eggs and asked for the bill. When the owner handed him the check, the rich man was shocked at the price. “Are eggs rare in this neighborhood?” he asked. “No,” the owner said. “Eggs are plentiful, but very rich men are quite rare.”

Custom pricing through bargaining still exists in some industries. For example, car dealerships often negotiate a different price for each vehicle they sell. Economists refer to this as “first-degree” or “perfect” price discrimination, which is “perfect” from the seller’s perspective because it allows them to charge each customer the maximum amount they’re willing to pay.

A black-and-white photo shows a fleet of delivery trucks for the John Wanamaker Department Store parked side by side.
Wanamaker’s department store in Philadelphia was a pricing pioneer.
Hulton Archive/Getty Images

Currently, most American shoppers don’t bargain but instead see set prices. Many scholars trace the rise of set prices to John Wanamaker’s Philadelphia department store, which opened in 1876. In his store, each item had a nonnegotiable price tag. These set prices made it simpler for customers to shop and became very popular.

Why uniform pricing caught on

Set prices have several advantages for businesses. For one thing, they allow stores to hire low-paid retail workers instead of employees who are experts in negotiation.

Historically, they also made it easier for stores to decide how much to charge. Before the advent of AI pricing, many companies determined prices using a “cost-plus” rule. Cost-plus means a business adds a fixed percentage or markup to an item’s cost. The markup is the percentage added to a product’s cost that covers a company’s profits and overhead.

The big-box retailer Costco still uses this rule. It determines prices by adding a roughly 15% maximum markup to each item on the warehouse floor. If something costs Costco $100, they sell it for about $115.

The problem with cost-plus is that it treats all items the same. For example, Costco sells wine in many stores. People buying expensive Champagne typically are willing to pay a much higher markup than customers purchasing inexpensive boxed wine. Using AI gets around this problem by letting a computer determine the optimal markup item by item.

What personalized pricing means for shoppers

AI needs a lot of data to operate effectively. The shift from cash to electronic payments has enabled businesses to collect what’s been called a “gold mine” of information. For example, Mastercard says its data lets companies “determine optimal pricing strategies.”

So much information is collected when you pay electronically that in 2024 the Federal Trade Commission issued civil subpoenas to Mastercard, JPMorgan Chase and other financial companies demanding to know “how artificial intelligence and other technological tools may allow companies to vary prices using data they collect about individual consumers’ finances and shopping habits.” Experiments at the FTC show that AI programs can even collude among themselves to raise prices without human intervention.

To prevent customized pricing, some states have laws requiring retailers to display a single price for each product for sale. Even with these laws, it’s simple to do custom pricing by using targeted digital coupons, which vary each shopper’s discount.

How you can outsmart AI pricing

There are ways to get around customized pricing. All depend on denying AI programs data on past purchases and knowledge of who you are. First, when shopping in brick-and-mortar stores, use paper money. Yes, good old-fashioned cash is private and leaves no data trail that follows you online.

Second, once online, clear your cache. Your search history and cookies provide algorithms with extensive amounts of information. Many articles say the protective power of clearing your cache is an urban myth. However, this information was based on how airlines used to price tickets. Recent analysis by the FTC shows the newest AI algorithms are changing prices based on this cached information.

Third, many computer pricing algorithms look at your location, since location is a good proxy for income. I was once in Botswana and needed to buy a plane ticket. The price on my computer was about $200. Unfortunately, before booking I was called away to dinner. After dinner my computer showed the cost was $1,000 − five times higher. It turned out after dinner I used my university’s VPN, which told the airline I was located in a rich American neighborhood. Before dinner I was located in a poor African town. Shutting off the VPN reduced the price.

Last, often to get a better price in face-to-face negotiations, you need to walk away. To do this online, put something in your basket and then wait before hitting purchase. I recently bought eyeglasses online. As a cash payer, I didn’t have my credit card handy. It took five minutes to find it, and the delay caused the site to offer a large discount to complete the purchase.

The computer revolution has created the ability to create custom products cheaply. The cashless society combined with AI is setting us up for customized prices. In a custom-pricing situation, seeing a high price doesn’t mean something is higher quality. Instead, a high price simply means a business views the customer as willing to part with more money.

Using cash more often can help defeat custom pricing. In my view, however, rapid advances in AI mean we need to start talking now about how prices are determined, before customized pricing takes over completely.

The Conversation

Jay L. Zagorsky does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. What is personalized pricing, and how do I avoid it? – https://theconversation.com/what-is-personalized-pricing-and-how-do-i-avoid-it-262195

Strengthening collective labor rights can help reduce economic inequality

Source: The Conversation – USA (2) – By Skip Mark, Assistant professor of political science, University of Rhode Island

Only about 1 in 10 U.S. workers belong to unions today. champc/iStock via Getty Images Plus

Despite the strength of the U.S. economy, the gap between rich and poor Americans is increasing.

The wealthiest 1% of Americans have more than five times as much wealth as the bottom 50%, according to the U.S. Federal Reserve. That’s up from four times as much in the year 2000. In 2024 alone, the wealthiest 19 families got a total of US$1 trillion richer – the largest one-year increase on record.

And yet 59% of Americans don’t have enough money saved up to cover an unexpected $1,000 expense.

We are political scientists who study human rights and political economy.

In a 2023 study, our team looked at 145 countries, including the U.S., to understand the link between labor rights and inequality. We found evidence that strengthening collective labor rights may reduce economic inequality.

Empowering workers

Collective labor rights include the rights to form and join a union, bargain collectively for higher pay and better working conditions, go on strike, and get justice if employers punish workers who exercise these rights.

In the U.S., where less than 10% of workers belong to unions, union members typically earn higher wages than their nonunion counterparts.

Through negotiations on behalf of their members, unions can pressure employers to provide fair wages and benefits. If negotiations break down, the union can call for a strike – sometimes winning better benefits and higher wages as a result.

Some U.S. unions don’t have the right to strike, including air traffic controllers, teachers and those working on national security issues. But most unions have some ability to implement work stoppages and impose costs on employers to negotiate for raises and better benefits and conditions.

Reducing inequality

For our study, we analyzed the human rights in the CIRIGHTS dataset, which uses human rights reports from the U.S. State Department, Amnesty International and other sources to measure government respect for 24 human rights, including the rights to unionize and bargain collectively. The dataset is produced by the University of Rhode Island, Binghamton University and the University of Connecticut. One of us, Skip Mark, serves as a co-director of the project.

Using a scoring guide, a team of researchers reads human rights reports and gives each country a score of zero if they have widespread violations, one point if they have some violations, or two if they have no evidence of violations. The team has assigned scores for all 24 rights from 1994 through 2022.

Using this data, we created a measure of collective labor rights by adding scores for the right to workplace association and the right to collective bargaining. The resulting collective labor rights score ranges from zero to four.

Countries where workers’ rights are routinely violated, such as Afghanistan, China and Saudi Arabia, scored a zero. The United States, Macedonia and Zambia, three countries with little in common, were among those that tended to get two points, placing them in the middle. Countries with no reported violations of the rights to workplace association and collective bargaining, including Canada, Sweden and France, got four points.

According to the CIRIGHTS dataset, the strength of respect for collective labor rights around the world declined by 50%, from 2.06 in 1994 to 1.03 in 2022.

At the same time, according to the World Inequality Dataset, the share of income earned by the 1% with the biggest paychecks increased by 11%.

We used advanced statistical methods to figure out whether better worker protections actually reduce inequality or are just associated with it.

Gaps between individuals and ethnic groups

We also measured what’s been happening to economic inequality, using two common ways to track it.

One of them is vertical inequality, the gap between what people earn within a country – the rich versus the poor. The more unequal a society becomes, the higher its vertical inequality score gets. We measured it using the disposable income measure from the Gini index, a commonly used indicator of economic inequality that captures how much money individuals have to spend after taxes and government transfers.

We found that a one-point increase in collective labor rights on our four-point scale reduces vertical inequality by 10 times the average change in inequality. For the U.S., a one-point increase in collective labor rights would be about enough to undo the increase in inequality that occurred between 2008 and 2010 due to the Great Recession and its aftermath. It would also likely help stem the growing wealth gap between Black and white Americans. That’s because income disparities compound over time to create wealth gaps.

We also assessed the connection between horizontal inequality, which measures income inequality between ethnic or other groups, and collective labor rights.

Negative horizontal inequality measures the amount of a country’s income held by the poorest ethnic group. Higher scores for this metric indicate that the lowest-earning ethnic group has less income relative to the rest of society. Black Americans have the lowest median income of any racial or ethnic group, according to the U.S. Census Bureau.

Positive horizontal inequality measures the income earned by the richest ethnic group. When positive horizontal inequality rises, that means the richest ethnic group has more income relative to the rest of society. According to the same Census Bureau report, Asian Americans had the highest median earnings.

We found that stronger collective labor rights, both in law and in practice around the world, also reduce both types of horizontal inequality. This means they raise the floor by helping to improve the income of the poorest ethnic groups in society. They also close the gap by limiting the incomes of the richest ethnic group, which can reduce the likelihood of conflicts.

That is, our findings suggest that when workers are free to advocate for higher wages and better benefits for themselves, it also benefits society as a whole.

The Conversation

Stephen Bagwell is a researcher with the Human Rights Measurement Initiative, a charitable trust registered in New Zealand

Skip Mark does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Strengthening collective labor rights can help reduce economic inequality – https://theconversation.com/strengthening-collective-labor-rights-can-help-reduce-economic-inequality-254258

Are you really allergic to penicillin? A pharmacist explains why there’s a good chance you’re not − and how you can find out for sure

Source: The Conversation – USA (3) – By Elizabeth W. Covington, Associate Clinical Professor of Pharmacy, Auburn University

Penicillin is a substance produced by penicillium mold. About 80% of people with a penicillin allergy will lose the allergy after about 10 years. Clouds Hill Imaging Ltd./Corbis Documentary via Getty Images

Imagine this: You’re at your doctor’s office with a sore throat. The nurse asks, “Any allergies?” And without hesitation you reply, “Penicillin.” It’s something you’ve said for years – maybe since childhood, maybe because a parent told you so. The nurse nods, makes a note and moves on.

But here’s the kicker: There’s a good chance you’re not actually allergic to penicillin. About 10% to 20% of Americans report that they have a penicillin allergy, yet fewer than 1% actually do.

I’m a clinical associate professor of pharmacy specializing in infectious disease. I study antibiotics and drug allergies, including ways to determine whether people have penicillin allergies.

I know from my research that incorrectly being labeled as allergic to penicillin can prevent you from getting the most appropriate, safest treatment for an infection. It can also put you at an increased risk of antimicrobial resistance, which is when an antibiotic no longer works against bacteria.

The good news? It’s gotten a lot easier in recent years to pin down the truth of the matter. More and more clinicians now recognize that many penicillin allergy labels are incorrect – and there are safe, simple ways to find out your actual allergy status.

A steadfast lifesaver

Penicillin, the first antibiotic drug, was discovered in 1928 when a physician named Alexander Fleming extracted it from a type of mold called penicillium. It became widely used to treat infections in the 1940s. Penicillin and closely related antibiotics such as amoxicillin and amoxicillin/clavulanate, which goes by the brand name Augmentin, are frequently prescribed to treat common infections such as ear infections, strep throat, urinary tract infections, pneumonia and dental infections.

Penicillin antibiotics are a class of narrow-spectrum antibiotics, which means they target specific types of bacteria. People who report having a penicillin allergy are more likely to receive broad-spectrum antibiotics. Broad-spectrum antibiotics kill many types of bacteria, including helpful ones, making it easier for resistant bacteria to survive and spread. This overuse speeds up the development of antibiotic resistance. Broad-spectrum antibiotics can also be less effective and are often costlier.

Figuring out whether you’re really allergic to penicillin is easier than it used to be.

Why the mismatch?

People often get labeled as allergic to antibiotics as children when they have a reaction such as a rash after taking one. But skin rashes frequently occur alongside infections in childhood, with many viruses and infections actually causing rashes. If a child is taking an antibiotic at the time, they may be labeled as allergic even though the rash may have been caused by the illness itself.

Some side effects such as nausea, diarrhea or headaches can happen with antibiotics, but they don’t always mean you are allergic. These common reactions usually go away on their own or can be managed. A doctor or pharmacist can talk to you about ways to reduce these side effects.

People also often assume penicillin allergies run in families, but having a relative with an allergy doesn’t mean you’re allergic – it’s not hereditary.

Finally, about 80% of patients with a true penicillin allergy will lose the allergy after about 10 years. That means even if you used to be allergic to this antibiotic, you might not be anymore, depending on the timing of your reaction.

Why does it matter if I have a penicillin allergy?

Believing you’re allergic to penicillin when you’re not can negatively affect your health. For one thing, you are more likely to receive stronger, broad-spectrum antibiotics that aren’t always the best fit and can have more side effects. You may also be more likely to get an infection after surgery and to spend longer in the hospital when hospitalized for an infection. What’s more, your medical bills could end up higher due to using more expensive drugs.

Penicillin and its close cousins are often the best tools doctors have to treat many infections. If you’re not truly allergic, figuring that out can open the door to safer, more effective and more affordable treatment options.

An arm stretched out on an examining table gets pricked with a white needle by the hands of a clinician administering an allergy test.
A penicillin skin test can safely determine whether you have a penicillin allergy, but a health care professional may also be able to tell by asking you some specific questions.
BSIP/Collection Mix: Subjects via Getty Images

How can I tell if I am really allergic to penicillin?

Start by talking to a health care professional such as a doctor or pharmacist. Allergy symptoms can range from a mild, self-limiting rash to severe facial swelling and trouble breathing. A health care professional may ask you several questions about your allergies, such as what happened, how soon after starting the antibiotic did the reaction occur, whether treatment was needed, and whether you’ve taken similar medications since then.

These questions can help distinguish between a true allergy and a nonallergic reaction. In many cases, this interview is enough to determine you aren’t allergic. But sometimes, further testing may be recommended.

One way to find out whether you’re really allergic to penicillin is through penicillin skin testing, which includes tiny skin pricks and small injections under the skin. These tests use components related to penicillin to safely check for a true allergy. If skin testing doesn’t cause a reaction, the next step is usually to take a small dose of amoxicillin while being monitored at your doctor’s office, just to be sure it’s safe.

A study published in 2023 showed that in many cases, skipping the skin test and going straight to the small test dose can also be a safe way to check for a true allergy. In this method, patients take a low dose of amoxicillin and are observed for about 30 minutes to see whether any reaction occurs.

With the right questions, testing and expertise, many people can safely reclaim penicillin as an option for treating common infections.

The Conversation

Elizabeth W. Covington does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Are you really allergic to penicillin? A pharmacist explains why there’s a good chance you’re not − and how you can find out for sure – https://theconversation.com/are-you-really-allergic-to-penicillin-a-pharmacist-explains-why-theres-a-good-chance-youre-not-and-how-you-can-find-out-for-sure-253839