L’opéra au Moyen-Orient, vitrine culturelle et outil de soft power

Source: The Conversation – in French – By Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

_Zarqa Al Yamama_, le premier grand opéra produit par l’Arabie Saoudite, en avril 2024, à Riyad. Saudi Theatre and Performing Arts Commission

L’opéra, forme artistique et architecturale d’origine européenne, s’est diffusé au Moyen-Orient à partir du XIXe siècle, comme signe de modernité importée, avant de devenir un symbole culturel réinventé et un instrument de rayonnement international. Ce glissement d’un modèle occidental à une acclimatation locale s’opère selon les pays et les initiatives de leurs dirigeants alors que l’opéra, initialement perçu comme un art exogène, se mue progressivement en objet identitaire et diplomatique.


En Égypte, l’Opéra du Caire – plus ancienne implantation lyrique en Afrique et au Moyen-Orient – est inauguré en 1869 avec Rigoletto à l’occasion de l’ouverture du canal de Suez, tandis que, deux ans plus tard, Aïda est commandée à Verdi sur un sujet inspiré de l’Antiquité égyptienne.

Ces deux événements montrent à la fois le désir pour l’Égypte d’accéder à la modernité occidentale et l’influence que peut représenter la culture orientale pour les compositeurs européens. L’incendie de 1971 met un terme à cette aventure jusqu’à la construction dans un style islamique du Nouvel Opéra du Caire en 1988, grâce à un financement offert par le gouvernement japonais.

À partir des années 2010, des initiatives comme Balcony Opera permettent des actions « hors les murs » et mêlant répertoires arabes et occidentaux. Le rayonnement contemporain de chanteurs, comme Farrah El Dibany, alternant œuvres européennes et adaptations en arabe, illustre un va-et-vient entre traditions locales et programmation internationale standardisée.

Ce n’est pas le cas de l’Iran qui offre l’image d’une modernité lyrique interrompue. Depuis la fin du XIXe siècle, la formation d’une scène théâtrale moderne, nourrie des traductions de Molière mais aussi d’influences russes et caucasiennes, s’institutionnalise progressivement jusqu’à l’âge d’or des années 1960–1970 avec la Tehran Opera Company et l’inauguration du Vahdat Hall en 1967. La Révolution islamique de 1979 entraîne l’arrêt des activités lyriques. Depuis 2013, une renaissance partielle semble se dessiner sous la forme d’adaptations en persan d’œuvres importées, témoignant d’une résilience artistique.

Dans le cas d’Israël, l’histoire du lyrique se conjugue avec la construction culturelle nationale comme le montre la programmation, en 1923, de la Traviata, chantée en hébreu à Tel-Aviv, sous l’impulsion du chef d’orchestre et musicologue Mordecai Golinkin. La compagnie Israel Opera fonctionnera par la suite, de 1945 à 1984, avant que le New Israeli Opera s’installe en 1994 dans le Tel-Aviv Performing Arts Center.

La programmation mélange un répertoire international, mais aussi des œuvres abordant des thématiques juives et bibliques commandées à des compositeurs israéliens. Des productions comme The Passenger en 2012, dont l’histoire évoque l’Holocauste, inscrivent la mémoire et l’identité au cœur de l’activité lyrique locale associée à des politiques de médiation menée par Children Opera Hours, Magical Sounds.

Des opéras symboles de pouvoir

La vague d’intérêt pour l’art lyrique qui a touché les pays du Golfe procède d’une autre logique, où l’opéra devient un dispositif de soft power, d’attractivité touristique et d’urbanisme. À Mascate (capitale d’Oman), l’Opéra Royal inauguré en 2011 couronne une stratégie initiée par le sultan Qabous, dès les années 1980, avec la création d’un orchestre symphonique national. Inséré dans un ensemble de 80 000 mètres carrés, incluant jardins, hall d’exposition, galerie d’exposition d’instruments de musique et espaces commerciaux, le site déploie une programmation éclectique qui associe répertoires occidentaux, créations arabes et musiques du monde en coproduction avec de grandes maisons européennes.

À Dubaï, l’ouverture en 2016 d’une salle modulable de 2 000 places, conçue par Janus Rostock, en forme de boutre (un voilier arabe) et implantée dans le quartier Downtown, associe une forte identité architecturale à une flexibilité d’usage. Elle joue aussi le rôle de locomotive pour l’hôtellerie, les commerces et le tourisme événementiel. Cette même logique opère au Qatar ou au Koweit. L’ambition de s’inscrire comme capitale culturelle s’y exprime à travers l’accueil de productions et d’orchestres internationaux.

De son côté, l’Arabie saoudite incarne une accélération singulière de la structuration de son territoire lyrique. Longtemps imperméable à l’opéra du fait de restrictions de nature religieuse (présence de femmes et musique occidentale non autorisées), le royaume s’y ouvre progressivement à partir des années 2010 avant de créer, en 2020, la Theater and Performing Arts Commission dans le cadre de Vision 2030. Son objectif est d’ouvrir le royaume à la modernité en renforçant notamment l’offre destinée aux touristes et aux hommes d’affaires.

En avril 2024, la création de Zarqa Al Yamama, premier grand opéra national de langue arabe, marque une étape symbolique avec le recours à un livret du poète et dramaturge saoudien Saleh Zamanan.

L’intrigue se déroule dans une Arabie préislamique et raconte l’histoire d’une femme extralucide pressentant une attaque d’ennemis, dont la tribu ignore les avertissements. Présentée au Centre culturel Roi Fahd, elle a montré la nécessité de bâtir des équipements spécifiquement conçues pour l’acoustique lyrique, la sonorisation de l’œuvre, riche d’influences musicales arabes, s’étant avérée indispensable dans cette salle de 2 700 places. Le territoire lyrique saoudien s’est progressivement enrichi d’un festival d’opéra, de programmes de collaboration internationale avec la programmation d’œuvres occidentales à Riyad et à Al-Ula tandis que des projets de nouveaux bâtiments sont envisagés à Riyad, à Djeddah ou à Diriyah.

Dans d’autres pays du golfe, la diplomatie culturelle et la patrimonialisation jouent un rôle structurant même sans maison d’opéra. Ainsi, la Jordanie a instauré le premier festival d’opéra du monde arabe à Amman, associant des artistes jordaniens à des partenaires italiens et projetant des créations à Pétra, croisant langues arabe, anglaise et nabatéenne.

Au Liban, le Festival international de Baalbek, fondé en 1956, a produit intégralement en 2025 et pour la première fois une œuvre (Carmen) alors que se profile un projet d’opéra national à Dbayeh, d’abord envisagé avec un soutien omanais puis porté par la Chine. Au-delà des infrastructures, deux figures emblématiques, Fairuz (âgée de 89 ans) et Sabah (disparue en 2014, divas de la musique arabe, façonnent l’imaginaire vocal libanais au-delà des frontières.

Des logiques territoriales différentes

On peut identifier plusieurs processus de territorialisation. Le premier, que l’on pourrait nommer « opéra-modernité » correspond à l’usage de la maison d’opéra comme signal d’entrée dans le modernisme avec un phénomène de patrimonialisation et d’adaptation, à l’image de l’Égypte du XIXe siècle. Le second que l’on pourrait qualifier d’« opéra-vitrine » se déploie surtout dans les pays du Golfe, associé généralement à des objectifs de soft power, de branding territorial, d’attractivité touristique et de requalification urbaine. Dépendant encore de compétences lyriques étrangères, l’enjeu à venir est d’arriver à concilier exposition à l’international et écosystème local et autonome. Le troisième processus reposerait davantage sur des stratégies de médiation et d’ancrage patrimonial.

À ces processus de territorialisation s’adossent des enjeux transversaux. L’intégration au lyrique de la langue comme de la musique arabes est centrale. Promouvoir un opéra en arabe nécessite d’enrichir la dramaturgie par des récits traditionnels, des références musicales – rythme de la poésie, maqâm – en dialogue avec les styles musicaux européens et leurs esthétiques. Les actions menées par Opera for Peace, par l’intermédiaire de ses master class, contribuent à structurer ce capital humain qui s’appuie sur des politiques de démocratisation, d’hybridation et de collaborations, mais aussi des financements pérennes. En outre, l’adossement à des sites patrimoniaux, très efficace pour unir spectacle, tourisme et récit identitaire, requiert des exigences techniques et administratives singulières.

En conclusion, l’art lyrique au Moyen-Orient est bien passé d’un modèle importé à un symbole culturel réinventé. L’opéra et son écosystème composé d’architectures emblématiques, de programmations premium et de festivals fonctionne, même s’il n’attire pas encore un public local conséquent. Si certains pays ont la capacité de financer seuls le déploiement de ce symbole de prestige, on note qu’après le Japon, la Chine investit désormais dans l’aide à la construction de maisons d’opéra dans cette région. Reste à savoir si la forme artistique pourra s’affranchir de son image de seule vitrine pour participer à la fabrique de récits, où l’arabe chanté, la musique traditionnelle et la mémoire des lieux contribueront à créer une modernité régionale à travers un processus de patrimonialisation propre à ces territoires.

The Conversation

Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’opéra au Moyen-Orient, vitrine culturelle et outil de soft power – https://theconversation.com/lopera-au-moyen-orient-vitrine-culturelle-et-outil-de-soft-power-265314

Quelles priorités pour le progrès social dans un environnement économique contraint

Source: The Conversation – in French – By Fabien Tripier, Professeur d’économie, Université Paris Dauphine – PSL

Proposer un progrès social crédible exige de tenir compte des contraintes actuelles : faiblesse de la productivité, nécessité de stabiliser la dette publique, concurrence fiscale internationale. Cela suppose de hiérarchiser les priorités en privilégiant la croissance par l’emploi et en réorientant les arbitrages budgétaires vers les services publics.


Les responsables politiques doivent donner des perspectives de progrès social pour répondre aux attentes des citoyens. Pour proposer des orientations crédibles, ces perspectives doivent tenir compte des contraintes économiques auxquelles la France fait actuellement face : la faiblesse des gains de productivité, la nécessité de stabiliser la dette publique et la concurrence fiscale internationale. Cela suppose de renoncer, au moins temporairement, à certains objectifs et d’accepter de hiérarchiser les priorités. À l’horizon de cinq années, les orientations à privilégier sont la croissance économique et la priorisation des services publics dans les arbitrages budgétaires.

En attendant la décroissance

La France a besoin de croissance économique. La décroissance, entendue comme une diminution de la production des biens et services et des revenus distribués, peut être une forme de progrès social, certainement la plus efficace pour la préservation de l’environnement. Accompagnée par un changement culturel sur la place de la consommation dans nos vies, elle pourrait se faire sans dégradation de la qualité de vie. Toutefois, la société ne semble pas prête aujourd’hui à suivre ce chemin.




À lire aussi :
Peut-on à la fois réduire la dette, ne pas entraver la croissance et lutter contre les inégalités ?


Au niveau individuel, le pouvoir d’achat est l’une des priorités exprimées par les Français. Au niveau collectif, les besoins d’investissement sont massifs : pour l’adaptation au changement climatique, comme cela a été documenté dans le rapport Pisani-Ferry et Mahfouz, mais aussi la préservation de la souveraineté militaire dans le nouveau contexte géopolitique. Satisfaire ces deux niveaux nécessite la production de biens et services qu’apporte la croissance économique.

Cette croissance ne peut pas se réaliser en travaillant moins. La baisse du temps de travail est incontestablement un objectif majeur du progrès social. Mais la limite essentielle, pour aller dans cette direction, est la faiblesse des gains de productivité actuels. Si la productivité n’augmente pas, travailler moins signifie produire moins, ce qui ne permettrait pas d’atteindre les objectifs individuels et collectifs.

La France décroche

Or, l’Europe connaît actuellement un décrochage des gains de productivité par rapport aux États-Unis particulièrement marqué en France. Depuis la crise Covid, les États-Unis ont connu une croissance de la productivité du travail de 5 % entre 2019 et 2024, la zone euro (hors France) a retrouvé en 2024 son niveau de productivité de 2019 alors que la France a connu une perte de productivité de 4,5 %.

Des gains de productivité peuvent être créés par des investissements dans l’éducation et l’innovation, mais même si ces investissements étaient réalisés dès aujourd’hui, il faudrait plusieurs années pour qu’ils se concrétisent. À l’horizon de cinq années, la diminution du travail – durée légale ou âge de la retraite – ne peut pas être la priorité. Cette conclusion est importante pour concentrer l’effort des politiques économiques sur l’accès du plus grand nombre à des emplois de qualité.

Trois crises en 15 ans

La contrainte extérieure est souvent invoquée pour justifier la réduction du déficit public. Mais cette réduction doit avant tout être défendue par ceux qui veulent préserver des marges de manœuvre pour l’action publique.

La France a connu une période de relative stabilité entre 1980 et 2008. Après une décennie de crises liées aux chocs pétroliers, nous avons bénéficié de vingt-cinq années sans crises majeures. Ce temps semble révolu. En quinze années seulement, l’économie française a été impactée par trois crises internationales majeures : financière (2008-2009), sanitaire (2020) et énergétique (2021-2022). À chaque fois, l’État a joué son rôle d’amortisseur, absorbant par un surcroît de dette publique une partie des conséquences pour limiter le coût pour les ménages et entreprises. Par exemple, lors de la crise énergétique, le gouvernement a mis en place un bouclier tarifaire certes coûteux pour les finances publiques, mais qui a permis de protéger les entreprises et les ménages de la hausse des prix de l’énergie et ainsi de soutenir la croissance et contenir l’inflation, comme nous le montrons dans un article à paraître (1).

Le vrai risque n’est pas une crise de dette souveraine à la grecque, mais l’incapacité d’agir lors de la prochaine crise économique. Le contexte international incertain doit inciter à reconstituer des marges budgétaires en réduisant le déficit public, pour que l’État préserve sa possibilité d’action future.

De l’urgence de choisir

Pour réduire le déficit, il faut affronter la difficile question du choix des dépenses à privilégier. Plusieurs solutions avancées visent à contourner cette question. La première solution, de facilité, invoque des dépenses « inutiles » à supprimer : agences d’État, réorganisations administratives. Ces économies,rarement chiffrées, sont d’une ampleur limitée face aux sommes nécessaires pour réduire durablement le déficit. La seconde solution, plus sérieuse, consiste à augmenter les prélèvements obligatoires, par exemple, par la mise en place d’une taxation sur les très grandes fortunes.

France 24 – 2025.

La réduction des inégalités est un objectif du progrès social. Il est tentant de concilier les deux objectifs : réduire le déficit en taxant le patrimoine des plus fortunés. Trois points sont à souligner. Premièrement, la France dispose déjà d’un puissant mécanisme de redistribution des 43 % des ménages les plus favorisés vers les 57 % les moins favorisés en tenant compte des transferts monétaires et en services publics. Elle affiche ainsi des inégalités plus faibles qu’ailleurs et qui progressent moins.

Un pari risqué

Deuxièmement, la mondialisation financière permet aux plus riches d’échapper à l’impôt par l’optimisation fiscale. Cette injustice rend le système fiscal régressif pour le 1 % des plus fortunés, tandis que les revenus du travail ont moins de possibilités d’évasion que ceux du capital. L’échelon international, ou du moins européen est pertinent pour résoudre ce problème. La France peut jouer un rôle moteur, mais ne devrait pas agir seule.

Troisièmement, bâtir une stratégie de réduction du déficit sur la seule taxation des grandes fortunes est insuffisant et risqué. Les estimations les plus favorables conduisent à vingt milliards d’euros de recettes supplémentaires, soit la moitié de l’effort nécessaire. Ces estimations comportent une marge d’incertitude importante pour des impôts nouveaux. La réaction prévisible des consommateurs à une hausse de TVA, est mieux connue que celle des grandes fortunes à un nouvel impôt sur leur patrimoine. Agir uniquement sur cette source fiscale serait un pari risqué.

Changer les priorités

Il faut donc accepter de devoir choisir parmi des dépenses qui ont toutes leur utilité et leur légitimité. Au vu des arbitrages récents, il convient d’inverser les priorités. Les décisions budgétaires ont protégé le pouvoir d’achat des retraités par exemple via l’indexation des pensions sur l’inflation, au détriment des autres dépenses publiques. Les retraités ne sont pas une catégorie économique homogène. Comme le reste de la population, elle est marquée par de fortes inégalités de revenus et de patrimoine. Il faut certes protéger les plus fragiles, qu’ils soient actifs ou retraités, mais au-delà, compte tenu des contraintes économiques, réallouer des dépenses des pensions de retraite vers les services publics présente une efficacité macroéconomique.

La priorité politique donnée à la préservation du pouvoir d’achat des retraités au cours des dernières années s’est traduite par un surcroît d’épargne dommageable à l’activité économique, pénalisée par la faiblesse de la consommation des ménages. Un euro de services publics soutient au contraire directement la demande à court terme et a un effet multiplicateur d’activité plus important que les dépenses en pensions de retraite.

Hiérarchiser les priorités

Investir dans l’éducation, la santé et la transition énergétique peut également être bénéfique à moyen terme par ses effets sur la productivité. Ces services publics sont aussi précieux pour la redistribution. Les travaux de l’Insee sur les comptes nationaux distribués montrent l’importance des transferts en nature dans le système français. Ne pas investir dans l’éducation et la santé dégraderait la qualité de ces services publics avec un risque d’amplification des inégalités, les ménages favorisés se tournant vers l’offre privée de ces services.

Accepter de hiérarchiser les priorités du progrès social, en raison de ces contraintes de court terme, ne signifie pas qu’il ne faille pas s’engager dans des projets visant à s’en libérer à long terme. À nouveau, plusieurs options sont possibles. La priorité est-elle de retrouver des gains de productivité, de changer le modèle de consommation ou de porter au niveau européen des projets d’harmonisation fiscale et de financements européens des dépenses publiques d’intérêt commun ?

Le débat est ouvert, le point essentiel est que les responsables politiques donnent des perspectives de progrès social intégrant ces différents horizons, les contraintes de court terme et les perspectives de long terme, pour répondre de manière crédible et cohérente aux attentes des citoyens.


(1) Langot, F., S. Malmberg, F. Tripier. & J.O. Hairault, 2025. The Macroeconomic and Redistributive Effects of the French Tariff Shield, Journal of Political Economy Macroeconomics, à paraître.

The Conversation

Fabien Tripier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quelles priorités pour le progrès social dans un environnement économique contraint – https://theconversation.com/quelles-priorites-pour-le-progres-social-dans-un-environnement-economique-contraint-266257

How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means

Source: The Conversation – USA (3) – By Simon F. Haeder, Associate Professor of Public Health, The Ohio State University

Democrats demanded that Republicans negotiate with them on ACA subsidies and Medicaid cuts. Kevin Dietsch/Getty Images News

Major rifts over key health care issues are at the heart of the federal government shutdown that began at the stroke of midnight on Oct. 1, 2025.

This is not the first time political arguments over health care policy have instigated a government shutdown. In 2013, for example, the government shut down due to disputes over the Affordable Care Act.

This time around, the ACA continues to play a central role, with Democrats demanding, among other things, an extension of subsidies for ACA plan insurance premiums that are set to expire at the end of 2025. Democrats are also holding out to roll back cuts to the Medicaid program that President Donald Trump signed into law on July 4, as part of what he called his “One Big Beautiful Bill.”

Without a budget agreement in place, Trump ordered most federal agencies to wind down their nonessential activities. The shutdown will continue until Congress passes either a short-term or long-term funding bill and Trump signs it.

Government shutdowns are nothing new, but as a health policy expert, I worry this time around the impasse may have far-reaching effects on health care.

Even as Democrats stage their battle over access to health care, the shutdown itself could also make it harder for Americans to get the care they need. Meanwhile, Trump has threatened to use the crisis to permanently cut federal jobs on a mass scale, including ones in the health care sector, which could substantially reshape federal health agencies and their ability to protect Americans’ health.

The partisan health care divide

Historically, questions about how the government should support access to health care have long been a source of conflict between the two main political parties. The passage of the ACA in 2010 and its implementation have only intensified this friction.

In the lead-up to the current shutdown, Republicans needed Democratic votes in the Senate to pass a bill that would keep funding the government at existing levels at least until November.

In return for their support, Democrats sought several concessions. A major one was to extend subsidies for ACA insurance policy premiums, which were established during the COVID-19 pandemic. These subsidies addressed a shortcoming in the ACA by decreasing premiums for millions of Americans – and they played a crucial role in more than doubling enrollment in the ACA marketplaces.

Without this extension, ACA premiums are set to rise by more than 75% in 2026, and the Congressional Budget Office estimated that 4.2 million Americans would lose insurance. At least some Republicans seemed open to considering the ACA subsidies, particularly those from districts that were more moderate and that had large numbers of people enrolled in ACA plans. But many have objected to doing that as part of the budget process.

Democrats are also pushing to renegotiate some of the changes made to Medicaid in the budget bill. These include new work requirements that are a cornerstone of Republican demands, under which certain adults would have to work or engage in qualifying activities to maintain Medicaid benefits. Work requirements are set to take effect in 2027, but implementing them would lead to an estimated 5 million people losing their health insurance coverage.

ACA subsidies are a major bone of contention in the standoff between Democrats and Republicans.

Most contentiously, these rollbacks to Medicaid cuts would reverse restrictions that made immigrants who are generally present in the country legally, such as refugees and asylum-seekers, ineligible for Medicaid and ACA coverage. These restrictions, which were included in the budget bill, could lead to the loss of insurance for about 1.4 million lawfully present immigrants, the Congressional Budget Office has estimated.

Republicans have balked at these demands, taking particular issue with the prospect of restoring Medicaid benefits to immigrants. Some Republicans – and Trump himself – have misconstrued the Democrats’ position, saying they are seeking free health care for immigrants in the country illegally.

What kinds of health services might be affected?

Most obviously, large-scale staff reductions would interfere with a wide range of health-related services not considered essential during the shutdown. This includes everything from surveying and certifying nursing homes to assisting Medicaid and Medicare beneficiaries and overseeing contracts or extra payments to rural ambulance providers.

Protesters on September 30, 2025, at a rally against cuts to health care
If the shutdown becomes protracted, health care services may be affected.
Tasos Katopodis/Getty Images Entertainment

Some seniors may face an immediate impact as two programs have now lost funding without a new budget in place. One expanded access for seniors to telehealth services. The other allowed people to receive services at home that are generally provided in a hospital.

Crucially, most seniors will continue to receive Social Security payments. However, providers might be hesitant to schedule patients covered by Medicare if the shutdown drags on over a long period of time. This is because payments to medical providers would likely be delayed.

What health services will continue to function?

The Centers for Medicare and Medicaid Services has indicated that there is enough funding for Medicaid, the government program that primarily provides health services to low-income Americans, to support the program through the end of the calendar year. If the shutdown lasts beyond that, states may have to decide whether to temporarily fund the program on their own or whether to reduce or delay provider payments. However, no previous shutdown has ever lasted more than 34 days.

Community health centers are generally expected to receive some funding, at least for now. These providers offer nonemergency medical services for about 34 million Americans each year. Many also provide important services across the nation’s schools. However, if the standoff continues for more than a few days, those centers may struggle to keep their doors open.

Health and Human Services has also indicated that it will use all available funding to maintain “minimal readiness for all hazards” and will maintain certain medical services, such as the Indian Health Service. The Veterans Health Administration will also stay open. One of the agencies most affected by previous layoffs, the Food and Drug Administration, has indicated that it would be exempt from further cuts.

A longer-term view

Ultimately, the severity of the shutdown’s effects on health care will depend on how long it lasts.

It will also depend on whether Trump makes good on his stated intention to use the shutdown as “an unprecedented opportunity” to reshape the federal bureaucracy. The White House announced plans for potential mass firings of workers, particularly those at “Democrat Agencies.”

Whether this threat is simply a bargaining tactic remains to be seen, and it’s unclear whether health-related workers and agencies are in the crosshairs. But given that previous layoffs specifically targeted health programs, more permanent reductions in programs that affect health care may be on the way.

The Conversation

Simon F. Haeder does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How the government shutdown is hitting the health care system – and what the battle over ACA subsidies means – https://theconversation.com/how-the-government-shutdown-is-hitting-the-health-care-system-and-what-the-battle-over-aca-subsidies-means-266565

Commuters have bemoaned Philly’s public transit for decades − in 1967, a librarian got the city to listen

Source: The Conversation – USA – By Menika Dirkson, Associate Professor of History, Morgan State University

A SEPTA train moves along the Market-Frankford Line in West Philadelphia. AP Photo/Matt Rourke

On April 13, 1967, around 1:30 p.m., Lt. Joseph Larkin of the Philadelphia Police Department’s subway unit visited the Philadelphia High School for Girls to interview the school’s librarian, 61-year-old Miriam S. Axelrod.

Axelrod had written a letter to Mayor James H.J. Tate about poor conditions on Philadelphia’s Broad Street Line subway. In her letter, she stated that the escalators in the subway concourse of the Walnut-Locust station were out of operation for several weeks and requested that they “be put in running order.”

Axelrod also asked that “something be done” about people using the subway stairs “as a latrine.”

As a historian of post-1968 Philadelphia, a proud alumna of Girls’ High and a rider of Philadelphia’s mass transit, Southeastern Pennsylvania Transportation Authority – more commonly known as SEPTA – I was thrilled to find Axelrod’s story among 1960s administrative reports to the police commissioner in the city archives.

Axelrod’s story reminds us that for nearly a century, Philadelphia’s mass transit has been plagued by poor conditions and unstable funding. Commuters’ complaints have often convinced government officials to act. However, no effective plan has ever been implemented to definitively solve the city’s transit crises.

SEPTA’s current turmoil

On Sept. 15, 2025, SEPTA fully restored its service, by court order, after implementing 20% service reductions and a 21.5% fare increase due to a US$213 million budget deficit.

Service cuts began on Aug. 24, just one day before public school students returned to classrooms. This left kids, seniors and people from nonwhite, working-class communities with few alternative routes. Riders faced lengthy travel times or were even stranded on their daily commute.

Passengers board a red, white and blue city bus
Passengers at Olney Transportation Center in North Philadelphia board a SEPTA bus on Aug. 25, 2025, a day after major service cuts went into effect.
AP Photo/Matt Rourke

Over 600,000 people travel on SEPTA’s 172 routes each day. For weeks, state legislators could not agree on how to fund SEPTA within the state budget. City officials, transit executives and tourism experts advocated for a bailout because Pennsylvania will reap tax revenue when Philly hosts millions of tourists in 2026 for America’s 250th birthday, the FIFA World Cup and the Major League Baseball All-Star Game.

Ultimately, Gov. Josh Shapiro authorized the use of the Pennsylvania Department of Transportation’s capital funds to finance SEPTA’s operations through June 2027.

Some lawmakers have argued that SEPTA is guilty of mismanaging funds, since the agency already received over $1 billion in state subsidies last year for operating assistance and asset improvement.

Public transport in the 1920s

As a longtime Philadelphian who lived in Center City, Miriam Axelrod was familiar with the strengths and shortcomings of public transportation.

At the age of 4, her family emigrated from Russia to Carmel, New Jersey. By 1920, they made Philadelphia their home just as the city’s Russian community became the largest immigrant group due to Jewish people escaping pogroms in Europe. Axelrod grew up living in South and North Philadelphia.

At that time, dozens of private transit companies operated in Philly.

Southern Penn operated city buses. Red Arrow provided suburban trolley service. Pennsylvania and Reading railroads offered high-speed rail lines. The Philadelphia Rapid Transit Co. alone brokered deals with 64 underlying companies to annually rent their services under 999-year leases. Fiscal responsibility for quality transportation was complicated and often dependent on public funding.

During PRT’s early years, it paid the city $15,000 annually for snow removal. In return, the city spent $2 million for street paving and bridge repairs.

By 1922, the PRT and the city had built and unified two elevated train routes – with assistance from the Union Traction Co. and the Market Street Elevated Passenger Railway Co. – to create the Market-Frankford Elevated Train Line.

A page from a high school yearbook with photos of three young women
Classmates at William Penn remembered Miriam Axelrod’s ‘remarkable capacity for starting arguments.’
Ancestry.com, U.S. School Yearbooks, 1900-2016

That was the same year Axelrod graduated from William Penn High School for Girls. Her classmates keenly noted in their yearbook that she had a “remarkable capacity for starting arguments” in which “any debatable subject will do.”

Six years later, the first segment of the Broad Street Subway traveling from Olney Station in North Philadelphia to City Hall opened to the public. Unlike the bus, trolley and railways systems, the city owned the El, short for elevated, line and subway. The city leased both systems to PRT and made the transit company responsible for their maintenance.

Sepia-toned photo of busy street in a commercial area of a city circa 1930s
Buses and trolley cars drive down Market Street in Philadelphia in the 1930s.
Charles Phelps Cushing/ClassicStock via Getty Images

The Depression years

Philadelphia first witnessed underfunded mass transit during the Great Depression.

In 1934, PRT faced a budget deficit when it was unable to pay the $7.1 million annual rentals to the underliers. PRT later went to court to request a consolidation plan. To make matters worse, PRT had spent approximately $230 million from 1902 through 1939, but that didn’t include spending to modernize old transit equipment.

On Jan. 1, 1940, the Philadelphia Transportation Co., a private company with a 21-member board of directors that included five city representatives including the mayor, Robert E. Lamberton, merged the transit companies and took over PRT’s operations. PTC became responsible for 10,000 employees and providing transportation for 2 million passengers a day.

PTC also acquired extensive financial responsibilities. Payroll expenses cost $327,000 each week. The annual rate for leasing the subway and El was roughly $3 million. PTC had to provide its 25,000 bondholders an annual income of at least $959,207 while also fulfilling its promise to offer modern transit vehicles.

Overcrowding and frequent fare increases

During the 1940s through the 1960s, Axelrod took public transportation to her job as a librarian at Central High School and later Frankford High School.

Meanwhile, PTC made good on its promise to provide better transit service. In its first eight years of operation, PTC spent $22.8 million to purchase 1,506 new streetcars, buses and trackless trolleys while also improving terminal and plant facilities. The company even purchased advertisements in The Philadelphia Inquirer to highlight its achievements. PTC extended 38 existing routes and created 18 new routes that serviced old residential and industrial areas, along with newly developed neighborhoods.

By 1949, however, many of PTC’s 3.2 million daily riders were complaining about overcrowded subways, the end of free exchanges between popular routes and frequent fare increases.

Black and white photo of men and women, some reading newspapers, in a subway car
Passengers ride a subway car in Philadelphia on Feb. 15, 1946.
AP Photo

Both PTC and the city faced scrutiny for these issues, although each party had distinct transit obligations outlined in their joint contract. PTC had to provide “safe and adequate service” that included spending on maintenance and replacement of transit equipment. The city was responsible for police and fire services on mass transit along with auditing PTC’s records. Both parties had to agree on fare changes under the state Public Utility Commission’s supervision.

Nevertheless, when issues on mass transit occurred, the city could persuade PTC to improve conditions, but the city was only required to offer emergency services to commuters.

When Larkin personally addressed Axelrod’s 1967 complaint about the subway, he informed her that the United Elevator Co. was repairing the escalators. He also assured her that the subway unit arrested 45 to 50 intoxicated people each month because they were at risk of falling onto the subway tracks. In “isolated cases,” Larkin explained, police arrested people for public urination and defecation.

Larkin reassured Axelrod that PTC could keep subway conditions clean and under control. In reality, PTC was underwater in responsibilities and debt.

On Sept. 30, 1968, SEPTA, a state agency formed five years earlier, took over PTC and managed transportation for the city and its surrounding areas. SEPTA bought PTC for approximately $47.9 million, settling the company’s debt, accepting its pension liability and buying out the institution’s roughly 1.7 million shareholders. Now federal and state funding rather than fare revenue largely determined the quality of the city’s public transit.

Decades of unpredictable funding

Since the 1960s, annual government funding to SEPTA has been unpredictable. White flight, deindustrialization and job flight have contributed to depopulation, a declining tax base and government defunding of social programs in Philadelphia. These socioeconomic shifts continue to affect Philadelphia’s budget for education, public housing and recreation as well as SEPTA’s $2.743 billion budget as a public transit agency.

Five counties in Greater Philadelphia contribute subsidies to SEPTA in exchange for transit service. Philadelphia alone contributes $110 million. State subsidies also help finance SEPTA’s $1.74 billion operating budget, while federal subsidies support SEPTA’s $1 billion capital budget to pay for major repairs and new equipment. State politicians annually vote on funding for SEPTA, but there has not been a concrete solution to the funding crisis.

For years, politicians have proposed using county sales and gas taxes along with business licensing fees to fund mass transit, without success. Additionally, since 2008 rising rates of car ownership have also led to fewer commuters and reduced fare revenues for SEPTA.

However, Philadelphians never ceased to demand better transit service. During the 1980s, the Pennsylvania Public Interest Coalition established the Transit Riders Action Campaign, also known as TRAC, which advocated that SEPTA have better safety, funding, accountability, service and stable fares. The Transport Workers Union Local 234 advised TRAC, while several organizations partnered with them: the Action Alliance of Senior Citizens, the Clean Air Council, Disabled in Action and the Delaware Valley Interfaith Coalition.

Even today, local groups such as Save the Train with outspoken commuters – like Axelrod was in her day – have launched campaigns to halt service cutbacks and encourage residents to write and telephone legislators who can vote to fund SEPTA. Residents have consistently united to advocate for quality mass transit. All that remains is an agreement among lawmakers to make it possible.

Read more of our stories about Philadelphia and Pennsylvania, or sign up for our Philadelphia newsletter on Substack.

The Conversation

Menika Dirkson does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Commuters have bemoaned Philly’s public transit for decades − in 1967, a librarian got the city to listen – https://theconversation.com/commuters-have-bemoaned-phillys-public-transit-for-decades-in-1967-a-librarian-got-the-city-to-listen-264860

Qu’est-ce que l’espace-temps, exactement ?

Source: The Conversation – in French – By Daryl Janzen, Observatory Manager and Instructor, Astronomy, University of Saskatchewan

Peu d’idées dans la science moderne ont autant bouleversé notre compréhension de la réalité que l’espace-temps, cette trame entrelacée d’espace et de temps qui est au cœur de la théorie de la relativité d’Albert Einstein. L’espace-temps est souvent décrit comme le « tissu de la réalité ».

Dans certains récits, cette trame est qualifiée d’« univers-bloc » fixe et quadridimensionnel, une carte complète de tous les événements, passés, présents et futurs. Dans d’autres, il s’agit d’un champ dynamique qui se courbe et se déforme en réponse à la gravité.

Mais que signifie réellement dire que l’espace-temps existe ? De quel type de chose s’agit-il ? L’espace-temps est-il une structure, une substance ou une métaphore ?

Le cœur de la physique moderne

Ces questions ne sont pas seulement philosophiques. Elles sont au cœur de notre interprétation de la physique moderne et façonnent discrètement de multiples enjeux, de notre compréhension de la relativité générale à notre conception du voyage dans le temps, et jusqu’aux multivers et à nos origines.

Ces questions éclairent l’émergence de l’espace-temps lui-même et de nouvelles propositions radicales qui le traitent comme la mémoire de l’univers. Et pourtant, le langage que nous utilisons pour décrire l’espace-temps est souvent vague, métaphorique et profondément incohérent.

Le philosophe austro-britannique Ludwig Wittgenstein a un jour averti que les problèmes philosophiques surgissent lorsque « le langage part en vacances ». Il s’avère que la physique en est peut-être un bon exemple.

Au cours du siècle dernier, des mots usuels tels que « temps », « exister » et « intemporel » ont été réutilisés dans des contextes techniques sans que l’on examine le sens qu’ils ont dans le langage courant.

Cela a conduit à une confusion généralisée quant à la signification réelle de ces termes.

Le problème du langage

En philosophie de la physique, en particulier dans une approche connue sous le nom d’éternalisme, le mot « intemporel » est utilisé au sens littéral. L’éternalisme est l’idée que le temps ne s’écoule pas et ne passe pas, que tous les événements à travers le temps sont également réels dans une structure à quatre dimensions connue sous le nom d’« univers-bloc ».

rangées de blocs
L’éternalisme considère que tout existe de manière atemporelle et simultanée.
(Rick Rothenberg/Unsplash), CC BY

Selon cette vision, toute l’histoire de l’univers est déjà écrite, de manière intemporelle, dans la structure de l’espace-temps. Dans ce contexte, « intemporel » signifie que l’univers lui-même ne perdure ni ne se déploie dans un sens réel. Il n’y a pas de devenir. Il n’y a pas de changement. Il n’y a qu’un bloc, et toute l’éternité existe de manière intemporelle à l’intérieur de celui-ci.

Mais cela conduit à un problème plus profond. Si tout ce qui se produit à travers l’éternité est également réel, et que tous les événements sont déjà là, que signifie réellement le fait que l’espace-temps existe ?

Un éléphant dans la pièce

Il existe une différence structurelle entre l’existence et l’occurrence. L’une est un mode d’être, l’autre, un mode d’arriver.

Imaginez qu’un éléphant se tienne à côté de vous. Vous diriez probablement : « Cet éléphant existe. » Vous pourriez le décrire comme un objet tridimensionnel, mais surtout, c’est un « objet tridimensionnel qui existe ».

En revanche, imaginez un éléphant purement tridimensionnel qui apparaît dans la pièce pendant un instant : un moment transversal dans la vie d’un éléphant existant, apparaissant et disparaissant comme un fantôme. Cet éléphant n’existe pas vraiment au sens ordinaire du terme. Il se produit. Il apparaît.

Un éléphant existant perdure dans le temps, et l’espace-temps catalogue chaque instant de son existence sous la forme d’une ligne mondiale en quatre dimensions – le parcours d’un objet dans l’espace et le temps tout au long de son existence. L’« éléphant qui apparaît » imaginaire n’est qu’une tranche spatiale du tube, un instant en trois dimensions.

Appliquons maintenant cette distinction à l’espace-temps lui-même. Que signifie l’existence d’un espace-temps à quatre dimensions au sens où l’éléphant existe ? L’espace-temps perdure-t-il dans le même sens ? L’espace-temps a-t-il son propre ensemble de moments « présents » ? Ou bien l’espace-temps – l’ensemble de tous les événements qui se produisent à travers l’éternité – est-il simplement quelque chose qui se produit ? L’espace-temps est-il simplement un cadre descriptif permettant de relier ces événements ?


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


L’éternalisme brouille cette distinction. Il traite toute l’éternité – c’est-à-dire tout l’espace-temps – comme une structure existante, et considère le passage du temps comme une illusion. Mais cette illusion est impossible si tout l’espace-temps se produit en un clin d’œil.

Pour retrouver l’illusion que le temps passe dans ce cadre, l’espace-temps à quatre dimensions doit exister d’une manière plus proche de l’éléphant à trois dimensions existant, dont l’existence est décrite par l’espace-temps à une dimension.

Chaque événement

Poussons cette réflexion un peu plus loin.

Si nous imaginons que chaque événement de l’histoire de l’univers « existe » dans l’univers-bloc, alors nous pourrions nous demander : quand le bloc lui-même existe-t-il ? S’il ne se déroule pas et ne change pas, existe-t-il hors du temps ? Si tel est le cas, alors nous ajoutons une autre dimension temporelle à quelque chose qui est censé être intemporel au sens littéral.

Pour donner un sens à cela, nous pourrions construire un cadre à cinq dimensions, en utilisant trois dimensions spatiales et deux dimensions temporelles. Le deuxième axe temporel nous permettrait de dire que l’espace-temps à quatre dimensions existe exactement de la même manière que nous considérons généralement qu’un éléphant dans une pièce existe dans les trois dimensions spatiales qui nous entourent, les événements que nous classons comme espace-temps à quatre dimensions.

À ce stade, nous sortons du cadre de la physique établie, qui décrit l’espace-temps à travers quatre dimensions seulement. Mais cela révèle un problème profond : nous n’avons aucun moyen cohérent de parler de ce que signifie l’existence de l’espace-temps sans réintroduire accidentellement le temps à travers une dimension supplémentaire qui ne fait pas partie de la physique.

C’est comme essayer de décrire une chanson qui existe à un moment donné, sans être jouée, entendue ou dévoilée.

De la physique à la fiction

Cette confusion façonne notre conception du temps dans la fiction et la science populaire.

Dans le film de James Cameron de 1984, The Terminator, tous les événements sont considérés comme fixes. Le voyage dans le temps est possible, mais la chronologie ne peut être modifiée. Tout existe déjà dans un état fixe et intemporel.

Dans le quatrième film de la franchise Avengers, Avengers : Endgame (2019), le voyage dans le temps permet aux personnages de modifier les événements passés et de remodeler la ligne temporelle, suggérant un univers en bloc qui existe et change à la fois.

Ce changement ne peut se produire que si la ligne temporelle à quatre dimensions existe de la même manière que notre monde à trois dimensions.

Mais indépendamment de la possibilité d’un tel changement, les deux scénarios supposent que le passé et l’avenir sont là et prêts à être parcourus. Cependant, aucun des deux ne s’intéresse à la nature de l’existence que cela implique, ni à la manière dont l’espace-temps diffère d’une carte des événements.

Comprendre la réalité

Lorsque les physiciens affirment que l’espace-temps « existe », ils travaillent souvent dans un cadre qui a discrètement brouillé la frontière entre existence et occurrence. Il en résulte un modèle métaphysique qui, au mieux, manque de clarté et, au pire, obscurcit la nature même de la réalité.

Rien de tout cela ne remet en cause la théorie mathématique de la relativité ou la science empirique qui la confirme. Les équations d’Einstein fonctionnent toujours. Mais la manière dont nous interprétons ces équations est importante, en particulier lorsqu’elle influence la façon dont nous parlons de la réalité et dont nous abordons les problèmes plus profonds de la physique.

Ces compréhensions incluent des tentatives de réconciliation de la relativité générale avec la théorie quantique – un défi exploré à la fois dans la philosophie et les débats scientifiques populaires.

Définir l’espace-temps est plus qu’un débat technique : il s’agit de déterminer dans quel type de monde nous pensons vivre.

La Conversation Canada

Daryl Janzen ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Qu’est-ce que l’espace-temps, exactement ? – https://theconversation.com/quest-ce-que-lespace-temps-exactement-264101

Deepfakes et élections en Afrique : la prochaine grande menace démocratique ?

Source: The Conversation – in French – By Fabrice Lollia, Docteur en sciences de l’information et de la communication, chercheur associé laboratoire DICEN Ile de France, Université Gustave Eiffel

Les élections africaines, déjà marquées par des tensions récurrentes autour de la transparence et de la désinformation, pourraient bientôt entrer dans une nouvelle ère, celle des deepfakes. Ces vidéos et audios générés par intelligence artificielle, capables d’imiter la voix, le visage et les gestes d’une personne avec un réalisme troublant, déplacent la frontière de la manipulation politique.

S’ils prêtent parfois à sourire lorsqu’ils mettent en scène des célébrités dans des détournements humoristiques, leur usage en période électorale représente une menace sérieuse pour la stabilité démocratique. Aux États-Unis, en Inde ou encore en Slovaquie, les deepfakes ont déjà été mobilisés pour influencer l’opinion publique. La question centrale est donc très simple : l’Afrique est-elle prête à affronter ce nouvel outil de manipulation électorale ?

Chercheur en sciences de l’information et de la communication, j’étudie la circulation de l’information, la désinformation et les vulnérabilités communicationnelles en contexte de crise. L’émergence des deepfakes illustre ces tensions. En Afrique, où la jeunesse hyperconnectée domine l’électorat mais où la culture numérique reste inégale, le risque est particulièrement élevé. J’en propose ici une lecture info-communicationnelle appliquée aux élections africaines

Des précédents inquiétants à l’échelle mondiale

Les deepfakes ne sont plus une hypothèse futuriste. Ils ont déjà marqué des épisodes électoraux clés, offrant des leçons pour les pays africains.
En 2023, en Slovaquie, quelques jours avant les législatives, un deepfake audio circulant sur Facebook et Telegram attribuait à Michal Simecka, chef du parti pro-occidental progressiste slovaque, une conversation où il planifiait de ruser le scrutin. Ce contenu a semé le doute au profit du camp populiste de Robert Fico. Il s’agit du premier cas documenté en Europe où un deepfake aurait pesé sur un scrutin national.

En 2024 aux États unis lors de la primaire démocrate du New Hampshire, des électeurs reçurent un appel téléphonique deepfake imitant la voix de Joe Biden et incident à l’abstention. Ce qui illustre l’usage des deepfakes pour dissuader la participation électorale, ce qui constitue une attaque frontale contre la démocratie.

En 2024 en Inde, les élections générales de 2024 ont été marquées par une explosion de deepfakes. Ces vidéos et sons générés par intelligence artificielle (IA) ont été diffusés massivement par les réseaux sociaux. Des acteurs de Bollywood ou même des personnalités politiques décédées ont été mis en scène pour soutenir ou attaquer les candidats.

Ces cas montrent que les deepfakes ne visent pas seulement à convaincre, mais surtout à introduire le doute, brouiller les repères et miner la confiance.

Un terrain fertile en Afrique

Le continent africain compte aujourd’hui plus de 670 millions d’internautes, majoritairement jeunes. Whatsapp, Facebook et TikTok sont devenus les principales sources d’information politique. Dans ce contexte, plusieurs facteurs accentuent la vulnérabilité face aux deepfakes :

• Une faible culture de vérification : beaucoup d’utilisateurs partagent sans contrôler l’origine des contenus;

• Une viralité extrême : les messages et vidéos circulent rapidement dans les groupes fermés et sont difficiles à surveiller;

• Les institutions électorales sont contestées : la confiance citoyenne est fragile, ce qui confère une crédibilité accrue aux fausses informations.

Des signaux faibles apparaissent déjà :

Au Nigéria, en 2023, des inquiétudes ont émergé concernant la circulation de vidéos manipulées lors de la présidentielle.

Au Kenya, en 2022, TikTok et Facebook ont hébergé de nombreux contenus politiques manipulés, certains proches de techniques de falsification, dans le cadre de campagnes de désinformation.

L’Afrique se trouve donc dans une phase de vulnérabilité latente, réunissant tous les ingrédients pour que les deepfakes deviennent rapidement une arme politique.
À la différence des « fake news » classiques, les deepfakes tirent leur force de la synergie image/son créant une illusion sensorielle difficile à contester. Leur efficacité ne repose pas seulement sur la capacité à tromper, mais sur leur pouvoir de déstabilisation symbolique.

Ils peuvent ainsi créer un scandale contre un candidat, amplifier des clivages ethniques ou religieux et semer la confusion.

Cette érosion du contrat de vérité constitue une crise communicationnelle majeure qui fragilise les démocraties africaines déjà confrontées à des équilibres institutionnels précaires.

Une lecture info-communicationnelle

Les SIC permettent d’analyser ce phénomène sous un angle élargi. Trois axes sont particulièrement pertinents :

  • Tout d’abord, en termes de médiologie et de circulation des rumeurs, les deepfakes s’inscrivent dans une longue histoire des technologies de communication comme instruments de pouvoir. L’incertitude, le manque de transparence et l’opacité de certaines sphères d’information favorisent la prolifération de rumeurs, en particulier dans les contextes électoraux ou politiques.Les deepfakes ajoutent une couche technologique qui donne un vernis de crédibilité à la rumeur.

  • Ensuite, dans le cadre des logiques sociotechniques des plateformes, les algorithmes comme celui de TikTok privilégient les contenus sensationnels et polarisants. Dans ce système le deepfake devient une arme algorithmique amplifiée par l’économie de l’attention.

  • Enfin, on constate que dans un contexte africain marqué par des fractures linguistiques, éducatives et technologiques, la réception des deepfakes varie fortement. La culture numérique inégale favorise des appropriations différenciées, accentuant les asymétries de compréhension.

De nombreuses pistent émergent, mais leur mise en œuvre reste complexe :
Google, Meta ou Microsoft développent des outils capables d’identifier les contenus synthétiques. Mais ces technologies de détection restent coûteuses et rarement accessibles aux médias africains.

Des initiatives comme Africa Check jouent un rôle crucial en terme de médias et fact-checking, mais elles sont sous-dimensionnées face à la masse d’informations manipulées.

D’un point de vue juridique, certains pays africains légifèrent contre les fake news comme le Ghana ou l’Ouganda, mais il est à craindre que ces lois, dont l’encadrement est discutable, risquent de servir la censure politique plutôt que la protection citoyenne. Une approche panafricaine via l’Union Africaine ou les communautés régionales offrirait plus de crédibilité.

Former les jeunes et les moins jeunes à repérer, vérifier et questionner les contenus constitue un investissement démocratique stratégique. Les programmes scolaires universitaires, l’éducation aux médias, qui sont les leviers à long terme doivent intégrer la littérature numérique et médiatique comme compétences civiques.

Vers une souveraineté numérique africaine ?

La menace des deepfakes invite aussi à réfléchir à une souveraineté numérique africaine. L’Afrique ne peut pas dépendre uniquement des géants technologiques occidentaux pour sécuriser son espace informationnel. Le développement de laboratoires panafricains de recherche et de détection associés à des initiatives de société civile pourrait constituer une réponse endogène.

En outre, la coopération Sud-Sud ( par exemple entre l’Inde et certains pays africains) pourrait favoriser l’échange de solutions techniques et pédagogiques. Car il ne s’agit pas seulement de contrer la manipulation, mais aussi de bâtir une culture numérique partagée, capable de redonner confiance aux citoyens.

Les cas en Slovaquie, en Inde, aux États-Unis montrent que les deepfakes sont déjà une arme électorale redoutable. En Afrique, leur introduction dans le jeu politique n’est plus qu’une question de temps.

Mais la menace ne se réduit pas à une technologie. Elle révèle une vulnérabilité communicationnelle plus profonde qui se caractérise par une crise de confiance minant la légitimité démocratique. L’enjeu n’est donc pas uniquement de détecter les deepfakes, mais bien de reconstruire un rapport de vérité entre gouvernés et gouvernants.

Former les citoyens, renforcer les médias, développer une recherche locale et promouvoir une régulation panafricaine sont autant de pistes pour affronter ce défi. Car au-delà de la technique, c’est la capacité de l’Afrique à protéger l’intégrité de ses choix démocratiques qui est en jeu.

The Conversation

Fabrice Lollia does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Deepfakes et élections en Afrique : la prochaine grande menace démocratique ? – https://theconversation.com/deepfakes-et-elections-en-afrique-la-prochaine-grande-menace-democratique-266266

Toxic pollution builds up in snake scales: what we learnt from black mambas

Source: The Conversation – Africa – By Cormac Price, Post-doctoral fellow the HerpHealth lab, office 218, Building G23. Unit for Environmental Sciences and Management, North-West University; University of KwaZulu-Natal

Black mambas (Dendroaspis polylepis) are Africa’s longest, most famous venomous snakes. Despite their fearsome reputation, these misunderstood snakes are vital players in their ecosystems. They keep rodent populations in check and, in turn, help to protect crops and limit disease spread. The species ranges widely across sub-Saharan Africa, from Senegal to Somalia and south into South Africa. They can adapt to many environments.

Zoologist Cormac Price, in new research with professors Marc Humphries and Graham Alexander and reptile conservationist Nick Evans, found that black mambas can be indicators of heavy metal pollution. We asked him about it.

How do black mambas indicate toxic pollution?

It’s about bio-accumulation. Bioaccumulation happens when chemicals, like pesticides or heavy metals, build up in an organism’s body. These toxins come from polluted environments, from waste products of human activities like manufacturing. They pollute water or soil and gradually accumulate in plants and animals.

If toxins are present in the environment, they may first be taken in by plants, and then by animals that eat the plants, and animals that eat those animals. Black mambas are quite high up the food chain, so a lot of the toxins would accumulate in their bodies. These poisonous substances can reach dangerous levels, causing health problems for whatever eats them.

We tested the presence of four types of heavy metals (arsenic, cadmium, lead and mercury) in the bodies of black mambas.

All our samples were from the eThekwini Municipality (greater Durban area) in South Africa. Durban is a busy shipping container port and has a large industrial sector that includes chemicals, petrochemicals and automotive manufacturing. Alongside all this industry the municipality also has a network of conservancies and green spaces, known as the Durban Metropolitan Open Space System.

We chose to test for these metals because they are widely used in different industries and can cause drastic negative effects in the body. Mercury primarily damages the nervous system, arsenic can cause cancer and skin lesions, cadmium harms kidneys and bones and lead mainly affects brain development and blood functions. Because these metals accumulate over time and are difficult to break down, even low-level exposure can lead to chronic poisoning and long-term health problems.

Black mambas appear to be doing well in Durban and taking advantage of the abundance of rodents, which they eat. Wherever there is human settlement there will be waste and discarded food which rodents take full advantage of. Black mambas can also be quite site-specific when not disturbed, living in the same refuge for many years, giving a clearer indication of pollution levels at that specific site. This makes the snakes potentially good bioindicator species.

A bioindicator species is one that helps us understand the health of an environment. Because they are sensitive to changes like pollution or habitat damage, their presence, absence or condition can reveal if an ecosystem is in good condition or is experiencing increases of pollution or degradation.

The pollutants can be detected and calculated from a non-invasive, harmless scale clipping. Snake scales are composed mostly of keratin, the same sort of protein that produces human hair and nails. To clip a very thin slice of snake scale is as harmless as clipping a human finger nail.

We collected 31 mambas that had already been killed by vehicles, people or dogs, and tested muscle and liver samples from them for toxins. We also took scale clippings from 61 live snakes.

This was the first time in Africa that a species of snake was tested to see if it could be used as an indicator species of heavy metal pollution.

What did you find?

We found that the heavy metal concentrations in scales correlated with those found in the muscle and liver samples. For three of the four metals, scales were as accurate for testing as muscle and liver samples. So the harmless testing method is as good as the more invasive one.

For arsenic, cadmium and lead, the snakes were accumulating significantly lower concentrations of these toxins in the open, natural sites of the Durban Metropolitan Open Space System compared to more industrial and commercial areas. Mercury was less significantly different due to its more volatile nature and its capacity to travel through the environment.

What made you test mamba scales in the first place?

In 2020, I attended a conference on amphibians and reptiles, where a friend of mine presented his work on heavy metal pollutants in tiger snakes in the city of Perth, Australia.

I’ve also been working with Nick Evans of KZN Amphibian & Reptile Conservation for some years, on urban reptile ecology. Nick began collecting scale clippings, and I began to realise, while looking through the literature, how novel this was on a continental scale. Snakes had never been tested as a potential bioindicator species of heavy metal pollution in Africa previously.

Marc Humphries is a professor of environmental chemistry, and I was aware of his work on lead exposure in Nile crocodiles at St Lucia, a wetland in South Africa. When he expressed interest in examining the scale clippings, we were thrilled. Graham Alexander’s expertise in snake behaviour in general and specifically snakes in Durban was also instrumental in the success of this research.

How can this help fight pollution?

The fight against pollution is in the hands of the municipality and city managers. What the snakes are doing is warning us of the increasing danger these pollutants pose to environmental health and ultimately human health. They are also showing us how important open spaces are to the overall environmental and human health of the city of Durban. The snakes are telling us a story; what people in authority decide to do with this story rests with them.

Nick Evans of KZN Amphibian & Reptile Conservation made valuable contributions to the research and was a co-author on the article.

The Conversation

Cormac Price does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Toxic pollution builds up in snake scales: what we learnt from black mambas – https://theconversation.com/toxic-pollution-builds-up-in-snake-scales-what-we-learnt-from-black-mambas-265802

Science costs money – research is guided by who funds it and why

Source: The Conversation – USA – By Ryan Summers, Associate Professor of Science Education, University of North Dakota

NSF is one federal agency that funds a wide range of basic science research. Nicole Fuller/National Science Foundation, CC BY

Scientists have always needed someone to help foot the bill for their work.

In the 19th century, for example, Charles Darwin made an expensive voyage to the southernmost tip of the Americas, visiting many other places en route, including his famous trek through the Galapagos Islands. The fossil evidence Darwin collected over his five-year journey eventually helped him to think about an infinite variety of species, both past and present.

The HMS Beagle and its crew traversed these places while testing clocks and drawing maps for the Royal Navy, and the voyage was funded by the British government. Darwin’s position as a naturalist aboard the ship was unpaid, but, fortunately, his family’s private assets were enough to cover his living expenses while he focused on his scientific work.

Today, government and private funding both remain important for scientific discoveries and translating knowledge into practical applications.

As a professor of science education, one of my goals while preparing future teachers is to introduce them to the characteristics of scientific knowledge and how it is developed. For decades, there has been a strong consensus in my field that educated citizens also need to know about the nature of the scientific enterprise. This includes understanding who pays for science, which can differ depending on the type of research, and why it matters.

Funding for science is more than just the amount of money. To a large extent, the organizations that fund research set the agenda, and different funders have different priorities. It can also be hard to see the downstream benefits of scientific research, but they typically outweigh the upfront costs.

Basic research leads to new knowledge

Basic research, also called fundamental research, involves systematic study aimed at acquiring new knowledge. Scientists often pursue research that falls into this category without specific applications or commercial objectives in mind.

Of course, it costs money to follow where curiosity leads; scientists need funding to pursue questions about the natural and material world.

About 40% of basic research in the U.S. has been federally funded in recent years. The government makes this investment because basic research is the foundation of long-term innovation, economic growth and societal well-being.

Funding for basic research is distributed by the federal government through several agencies and institutes. For more than a century, the U.S. National Institutes of Health have sponsored a breadth of scientific and health research and education programs. Since 1950, the National Science Foundation has advanced basic research and education programs, including the training of the next generation of scientists.

Other federal agencies have complementary missions, such as the Defense Advanced Research Projects Agency, created in response to the Soviet Union’s launch of Sputnik in 1957. DARPA focuses on technological innovations for national security, many of which have become fixtures of civilian life.

Through a competitive review process at these agencies, subject experts vet research proposals and make funding recommendations. The amount of funding available from the NIH, NSF and DARPA varies annually, depending on congressional appropriations. Most of the awarded funds go to universities, research institutions and other health and science organizations that conduct research. The sum of research dollars awarded differs among states.

Applying research

Scientists undertake basic research to generate new knowledge with no specific end goal in mind. Applied research is different in that it aims to find solutions to real-world problems.

Research that investigates specific, practical objectives or improvements with commercial potential is more likely to attract private investors. Companies directly invest in research and development to gain a competitive edge and turn a profit. Private industry is more likely to sink dollars into applied rather than basic research because the potential payoff in the form of a new product or advance is more visible.

From discovery to real-world implementation

As applied research addresses problems, promising findings are moved toward clinical application or mainstream use. This research and development process can lead to tangible benefits for individuals and society.

Federal agencies such as the NIH make substantial investments in the basic and applied science underlying new drugs. Pharmaceutical and biotechnology companies heavily invest in the development of drug candidates. Recent reports have shown that industry has been responsible for 50% or more of the dollars invested in health and biomedical research in recent years. This expenditure includes significant spending to advance clinical trials – the studies that test new medical treatments before they get approved for use.

The NIH funded basic research that contributed to every single drug approved by the U.S. Food and Drug Administration between 2010 and 2016. This includes key work that led to COVID-19 vaccines. The COVID-19 vaccination campaign likely saved the U.S. more than $1 trillion in health care expenses that would have otherwise been incurred and also saved lives.

Initial NSF investments in research was instrumental in capturing images of black holes and exploring deep oceans. Basic research funded by NSF paved the way for everyday conveniences such as smartphones, the Google search engine and artificial intelligence. Other funded projects led to quality of life improvements such as American Sign Language and kidney matching for transplants. Educational programming, such as “Bill Nye the Science Guy” and “The Magic School Bus,” were NSF-backed projects, too.

It matters who pays: Funding shapes science

Funders and financial systems shape the trajectory of research across fields. Institutions advertise funding opportunities based on their current priorities. Changes in the amount of funding available ultimately direct the attention of researchers. Any interruptions to basic research, such as changes to financial supports or institutions, may threaten future discoveries and potential payoffs for years to come.

According to numbers reported by a coalition of research institutions, every dollar that NIH spends on research leads to $2.56 of new economic activity. For the 2024 fiscal year, this means, of the $47.35 billion Congress appropriated for NIH, the $36.94 billion awarded to U.S. researchers fueled $94 billion in activity through employment and the purchase of research-related goods and services.

Economist Pierre Azoulay and colleagues recently imagined an alternative history where NIH was 40% smaller and dispersed less money – a budget akin to current federal proposals. They argued that more than half of the drugs FDA approved since 2000 are tied to NIH-funded research that would have been cut under this scenario. This thought experiment underscores how valuable those basic research dollars are.

‘Last Week Tonight with John Oliver’ points out some seemingly outlandish basic research that has yielded surprising real-world applications.

Even seemingly out-of-touch or abstract studies may precede discoveries with major impact. Basic research into bee nectar foraging and movement around the colony, recently mentioned on “Last Week Tonight with John Oliver,” led to the development of an algorithm that distributes internet traffic between computer servers, which now powers the multibillion-dollar web-hosting industry. Learning about applications of research with visible societal impacts can help people understand and appreciate the role of funding in the scientific enterprise.

The Conversation

Ryan Summers receives funding from the National Science Foundation (NSF) and the National Institutes of Health (NIH). He is affiliated with the Association for Science Teacher Education (ASTE), NARST, which is a global organization for improving science education through research, and the National Science Teaching Association (NSTA).

ref. Science costs money – research is guided by who funds it and why – https://theconversation.com/science-costs-money-research-is-guided-by-who-funds-it-and-why-262587

Children can be systematic problem-solvers at younger ages than psychologists had thought – new research

Source: The Conversation – USA – By Celeste Kidd, Professor of Psychology, University of California, Berkeley

How do kids figure out how to sort things by order? Celeste Kidd

I’m in a coffee shop when a young child dumps out his mother’s bag in search of fruit snacks. The contents spill onto the table, bench and floor. It’s a chaotic – but functional – solution to the problem.

Children have a penchant for unconventional thinking that, at first glance, can look disordered. This kind of apparently chaotic behavior served as the inspiration for developmental psychologist Jean Piaget’s best-known theory: that children construct their knowledge through experience and must pass through four sequential stages, the first two of which lack the ability to use structured logic.

Piaget remains the GOAT of developmental psychology. He fundamentally and forever changed the world’s view of children by showing that kids do not enter the world with the same conceptual building blocks as adults, but must construct them through experience. No one before or since has amassed such a catalog of quirky child behaviors that researchers even today can replicate within individual children.

While Piaget was certainly correct in observing that children engage in a host of unusual behaviors, my lab recently uncovered evidence that upends some long-standing assumptions about the limits of children’s logical capabilities that originated with his work. Our new paper in the journal Nature Human Behaviour describes how young children are capable of finding systematic solutions to complex problems without any instruction.

Jean Piaget describes how children of different ages tackle a sorting task, with varying success.

Putting things in order

Throughout the 1960s, Piaget observed that young children rely on clunky trial-and-error methods rather than systematic strategies when attempting to order objects according to some continuous quantitative dimension, like length. For instance, a 4-year-old child asked to organize sticks from shortest to longest will move them around randomly and usually not achieve the desired final order.

Psychologists have interpreted young children’s inefficient behavior in this kind of ordering task – what we call a seriation task – as an indicator that kids can’t use systematic strategies in problem-solving until at least age 7.

Somewhat counterintuitively, my colleagues and I found that increasing the difficulty and cognitive demands of the seriation task actually prompted young children to discover and use algorithmic solutions to solve it.

Piaget’s classic study asked children to put some visible items like wooden sticks in order by height. Huiwen Alex Yang, a psychology Ph.D. candidate who works on computational models of learning in my lab, cranked up the difficulty for our version of the task. With advice from our collaborator Bill Thompson, Yang designed a computer game that required children to use feedback clues to infer the height order of items hidden behind a wall, .

The game asked children to order bunnylike creatures from shortest to tallest by clicking on their sneakers to swap their places. The creatures only changed places if they were in the wrong order; otherwise they stayed put. Because they could only see the bunnies’ shoes and not their heights, children had to rely on logical inference rather than direct observation to solve the task. Yang tested 123 children between the ages of 4 and 10.

Researcher Huiwen Alex Yang tests 8-year-old Miro on the bunny sorting task. The bunnies are hidden behind a wall with only their sneakers visible. Miro’s selections exemplify use of selection sort, a classic efficient sorting algorithm from computer science. Kidd Lab at UC Berkeley.

Figuring out a strategy

We found that children independently discovered and applied at least two well-known sorting algorithms. These strategies – called selection sort and shaker sort – are typically studied in computer science.

More than half the children we tested demonstrated evidence of structured algorithmic thinking, and at ages as young as 4 years old. While older kids were more likely to use algorithmic strategies, our finding contrasts with Piaget’s belief that children were incapable of this kind of systematic strategizing before 7 years of age. He thought kids needed to reach what he called the concrete operational stage of development first.

Our results suggest that children are actually capable of spontaneous logical strategy discovery much earlier when circumstances require it. In our task, a trial-and-error strategy could not work because the objects to be ordered were not directly observable; children could not rely on perceptual feedback.

Explaining our results requires a more nuanced interpretation of Piaget’s original data. While children may still favor apparently less logical solutions to problems during the first two Piagetian stages, it’s not because they are incapable of doing otherwise if the situation requires it.

A systematic approach to life

Algorithmic thinking is crucial not only in high-level math classes, but also in everyday life. Imagine that you need to bake two dozen cookies, but your go-to recipe yields only one. You could go through all the steps of making the recipe twice, washing the bowl in between, but you’d never do that because you know that would be inefficient. Instead, you’d double the ingredients and perform each step only once. Algorithmic thinking allows you to identify a systematic way of approaching the need for twice as many cookies that improves the efficiency of your baking.

Algorithmic thinking is an important capacity that’s useful to children as they learn to move and operate in the world – and we now know they have access to these abilities far earlier than psychologists had believed.

That children can engage with algorithmic thinking before formal instruction has important implications for STEM – science, technology, engineering and math –education. Caregivers and educators now need to reconsider when and how they give children the opportunity to tackle more abstract problems and concepts. Knowing that children’s minds are ready for structured problems as early as preschool means we can nurture these abilities earlier in support of stronger math and computational skills.

And have some patience next time you encounter children interacting with the world in ways that are perhaps not super convenient. As you pick up your belongings from a café floor, remember that it’s all part of how children construct their knowledge. Those seemingly chaotic kids are on their way to more obviously logical behavior soon.

The Conversation

Celeste Kidd receives funding from the National Science Foundation, the John Templeton Foundation, the Jacobs Foundation, and the Advanced Research and Invention Agency.

ref. Children can be systematic problem-solvers at younger ages than psychologists had thought – new research – https://theconversation.com/children-can-be-systematic-problem-solvers-at-younger-ages-than-psychologists-had-thought-new-research-266438

Virtual particles: How physicists’ clever bookkeeping trick could underlie reality

Source: The Conversation – USA – By Dipangkar Dutta, Professor of Nuclear Physics, Mississippi State University

Scientists imagine virtual particles popping in and out of existence to explain how forces transfer between particles. koto_feja/iStock via Getty Images

A clever mathematical tool known as virtual particles unlocks the strange and mysterious inner workings of subatomic particles. What happens to these particles within atoms would stay unexplained without this tool. The calculations using virtual particles predict the bizarre behavior of subatomic particles with such uncanny accuracy that some scientists think “they must really exist.”

Virtual particles are not real – it says so right in their name – but if you want to understand how real particles interact with each other, they are unavoidable. They are essential tools to describe three of the forces found in nature: electromagnetism, and the strong and weak nuclear forces.

Real particles are lumps of energy that can be “seen” or detected by appropriate instruments; this feature is what makes them observable, or real. Virtual particles, on the other hand, are a sophisticated mathematical tool and cannot be seen. Physicist Richard Feynman invented them to describe the interactions between real particles.

But many physicists are not convinced by this cut-and-dried distinction.
Although researchers can’t detect these virtual particles, as tools of calculation they predict many subtle effects that ultrasensitive experiments have confirmed to a mind-boggling 12 decimal places. That precision is like measuring the distance between the North and South poles to better than the width of a single hair.

This level of agreement between measurements and calculations makes virtual particles the most thoroughly vetted idea in science. It forces some physicists to ask: Can a mathematical tool become real?

Virtual particles help scientists follow the interactions between particles.

A bookkeeping tool

Virtual particles are the tool that physicists use to calculate how forces work in the microscopic subatomic world. The forces are real because they can be measured.

But instead of trying to calculate the forces directly, physicists use a bookkeeping system where short-lived virtual particles carry the force. Not only do virtual particles make the calculations more manageable, they also resolve a long-standing problem in physics: How does a force act across empty space?

Virtual particles exploit the natural fuzziness of the subatomic world, where if these ephemeral particles live briefly enough, they can also briefly borrow their energy from empty space. The haziness of the energy balance hides this brief imbalance, which allows the virtual particles to influence the real world.

One big advantage of this tool is that the mathematical operations describing the forces between particles can be visualized as diagrams. They tend to look like stick-figure cartoons of particle pingpong played with virtual particles. The diagrams – dubbed Feynman diagrams – offer an excellent intuitive framework, but they also give virtual particles an aura of reality that is deceiving.

Feynman diagrams help physicists calculate particle interactions.

Amazingly, this virtual particle-based method for calculation produces some of the most precise predictions in all of science.

Reality check

All matter is made of basic building blocks called atoms. Atoms, in turn, are made of small positively charged particles called protons found at their core, surrounded by even smaller negatively charged particles called electrons.

As a professor of physics and astronomy at Mississippi State University, I perform experiments that often rely on the idea that the electrons and protons seen in our instruments interact by swapping virtual particles. My colleagues and I have recently measured the size of the proton very precisely, by bombarding hydrogen atoms with a beam of electrons. This measurement assumes that the electrons can “feel” the proton at the center of the hydrogen atom by exchanging virtual photons: particles of electromagnetic energy.

Physicists use virtual particles to calculate how two electrons repel each other, with exquisite precision. The forces involved are represented as the accumulated effect of the two electrons trading virtual photons.

When two metal plates are placed extremely close together in a vacuum, they attract each other: This is known as the Casimir effect. Physicists can accurately calculate the force that pulls the plates together using virtual particle mathematics. Whether the virtual particles are really there or not, the math predicts exactly what researchers observe in the real world.

An illustration of two black circles merging in space
Virtual particles can help explain how black holes act.
SXS, CC BY-ND

Yet another mysterious prediction made using the virtual particle tool kit is so-called Hawking radiation. When virtual particle pairs pop into existence at the edge of black holes, sometimes the black hole’s gravity grabs one partner while the other escapes. This rift causes the black hole to slowly evaporate. Although Hawking radiation has not yet been directly observed, researchers have recently observed it indirectly.

Useful fiction

Let’s circle back to the question: Can a mathematical tool become real? If you can perfectly predict everything about a force by imagining it is carried by virtual particles, do these particles qualify as real? Does their fictional status matter?

Physicists remain divided on these questions. Some prefer to “just shut up and calculate” – one of Feynman’s famous quips. For now, virtual particles are our best way to describe how particles behave. But researchers are developing alternative methods that do not need them at all.

If successful, these approaches could make virtual particles vanish for good. Successful or not, the fact that alternatives exist at all suggests virtual particles might be useful fiction rather than physical truth. It also fits the pattern of previous revolutions in science – the example of ether comes to mind. Physicists invented ether as a medium through which light waves traveled. Experiments matched well with calculations using this tool, yet they could not actually detect it. Eventually, Einstein’s theory of relativity showed it was unnecessary.

Virtual particles are a striking paradox of modern physics. They shouldn’t exist, yet they are indispensable for calculating everything from the strength of magnets to the behavior of black holes. They represent a profound dilemma: Sometimes the best insights into reality come through carefully constructed illusion. In the end, confusion around virtual particles may be just the price of understanding fundamental forces.

The Conversation

Dipangkar Dutta receives funding from US Dept. of Energy and NSF.

ref. Virtual particles: How physicists’ clever bookkeeping trick could underlie reality – https://theconversation.com/virtual-particles-how-physicists-clever-bookkeeping-trick-could-underlie-reality-264739