Digital monitoring is growing in South Africa’s public service – regulation needs to catch up

Source: The Conversation – Africa (2) – By Lesedi Senamele Matlala, Senior Lecturer and Researcher in Public Policy, Monitoring and Evaluations, University of Johannesburg

Government departments across South Africa are increasingly relying on digital tools to evaluate public programmes and monitor performance. This is part of broader public-sector reforms. Their aims are to improve accountability, respond to audit pressure and manage large-scale programmes with limited staff and budgets.

Here’s an example. National departments tracking housing delivery, social grants or infrastructure rollout rely on digital performance systems rather than periodic paper-based reports. Dashboards – a way of showing visual data in one place – provide near real-time updates on service delivery.

Another is the use platforms that collect mobile data. These allow frontline officials and contractors to upload information directly from the field.

Both examples lend themselves to the use of artificial intelligence (AI) to process large datasets and generate insights that would previously have taken months to analyse.

This shift is often portrayed as a step forward for accountability and efficiency in the public sector.

I am a public policy scholar with a special interest in monitoring and evaluation of government programmes. My recent research shows a worrying trend, that the turn to technology is unfolding much quicker than the ethical and governance frameworks meant to regulate it.

Across the cases I’ve examined, digital tools were already embedded in routine monitoring and evaluation processes. But there weren’t clear standards guiding their use.

This presents risks around surveillance, exclusion, data misuse and poor professional judgement. These risks are not abstract. They shape how citizens experience the state, how their data is handled and whose voices ultimately count in policy decisions.

When technology outruns policy

Public-sector evaluation involves assessing government programmes and policies. It determines whether:

  • public resources are used effectively

  • programmes achieve their intended outcomes

  • citizens can hold the state accountable for performance.

Traditionally, these evaluations relied on face-to-face engagement between communities, evaluators, government and others. They included qualitative methods that allowed for nuance, explanation and trust-building.

Digital tools have changed this.

In my research, I interviewed evaluators across government, NGOs, academia, professional associations and private consultancies. I found a consistent concern across the board. Digital systems are often introduced without ethical guidance tailored to evaluation practice.

Ethical guidance would provide clear, practical rules for how digital tools are used in evaluations. For example, when using dashboards or automated data analytics, guidance should require evaluators to explain how data are generated, who has access to them and how findings may affect communities being evaluated. It should also prevent the use of digital systems to monitor individuals without consent or to rank programmes in ways that ignore context.

South Africa’s Protection of Personal Information Act provides a general legal framework for data protection. But it doesn’t address the specific ethical dilemmas that arise when evaluation becomes automated, cloud-based and algorithmically mediated.

The result is that evaluators are often left navigating complex ethical terrain without clear standards. This forces institutions to rely on precedent, informal habits, past practices and software defaults.

Surveillance creep and data misuse

Digital platforms make it possible to collect large volumes of data. Once data is uploaded to cloud-based systems or third-party platforms, control over its storage, reuse and sharing frequently shifts from the evaluators to others.

Several evaluators described situations where data they’d collected on behalf of government departments was later reused by the departments or other state agencies. This was done without participants’ explicit awareness. Consent processes in digital environments are often reduced to a single click.

Examples of other uses included other forms of analysis, reporting or institutional monitoring.

One of the ethical risks that came out of the research was the use of this data for surveillance. This is the use of data to monitor individuals, communities or frontline workers.

Digital exclusion and invisible voices

Digital evaluation tools are often presented as expanding reach and participation. But in practice, they can exclude already marginalised groups. Communities with limited internet access, low digital literacy, language barriers or unreliable infrastructure are less likely to participate fully in digital evaluations.

Automated tools have limitations. For example, they may struggle to process multilingual data, local accents or culturally specific forms of expression. This leads to partial or distorted representations of lived experience. Evaluators in my study saw this happening in practice.

This exclusion has serious consequences especially in a country with inequality like South Africa. Evaluations that rely heavily on digital tools might find urban, connected populations and make rural or informal communities statistically invisible.

This is not merely a technical limitation. It shapes which needs are recognised and whose experiences inform policy decisions. If evaluation data underrepresents the most vulnerable, public programmes may appear more effective than they are. This masks structural failures rather than addressing them.

In my study, some evaluations reported positive performance trends despite evaluators noting gaps in data collection.

Algorithms are not neutral

Evaluators also raised concerns about the growing authority granted to algorithmic outputs. Dashboards, automated reports and AI-driven analytics are often treated as the true picture. This happens even when they conflict with field-based knowledge or contextual understanding.

For example, dashboards may show a target as on track. But in an example of a site visit, evaluators my find flaws or dissatisfaction.

Several participants reported pressure from funders or institutions to rely on the analysis of the numbers.

Yet algorithms reflect the assumptions, datasets and priorities embedded in their design. When applied uncritically, they can reproduce bias, oversimplify social dynamics and disregard qualitative insight.

If digital systems dictate how data must be collected, analysed and reported, evaluators risk becoming technicians and not independent professionals exercising judgement.

Why Africa needs context-sensitive ethics

Across Africa, national strategies and policies on digital technologies often borrow heavily from international frameworks. These are developed in very different contexts. Global principles on AI ethics and data governance provide useful reference points. But they don’t adequately address the realities of inequality, historical mistrust and uneven digital access across much of Africa’s public sector.

My research argues that ethical governance for digital evaluation must be context-sensitive. Standards must address:

  • how consent is obtained

  • who owns evaluation data

  • how algorithmic tools are selected and audited

  • how evaluator independence is protected.

Ethical frameworks must be embedded at the design stage of digital systems.

The Conversation

Lesedi Senamele Matlala is affiliated with the South Africa Monitoring and Evaluation Association (SAMEA). I am the chairperson

ref. Digital monitoring is growing in South Africa’s public service – regulation needs to catch up – https://theconversation.com/digital-monitoring-is-growing-in-south-africas-public-service-regulation-needs-to-catch-up-273288

Africa’s trade blocs were designed to unite the continent: four reasons they haven’t delivered

Source: The Conversation – Africa (2) – By Chidi Anselm Odinkalu, Professor of Practice, International Human Rights Law, Tufts University

In a rapidly fracturing world, regional integration could be a source of resilience for the African continent.

The African Union agreed in 2019 to establish the African Continental Free Trade Area founded on the building blocks laid by eight regional economic communities. These are the Arab Maghreb Union, the Common Market for Eastern and Southern Africa (Comesa), the Community of Sahel-Saharan States (Cen-Sad), the East African Community (EAC), the Economic Community of Central African States (Eccas), the Economic Community of West African States (Ecowas), the Intergovernmental Authority on Development (IGAD) and the Southern African Development Community (SADC).

But integration has made slow progress.

The World Bank issued a report 45 years ago which said a larger regional market would increase production and reduce “long-term obstacles to development”. Those obstacles included infrastructure deficits, payment and settlement systems, and political risk.

They persist to this day. Based on my research over more than three decades of work on regionalism in Africa, I suggest there are four main reasons why.

  • Integration experiments suffer from colonial dependency.

  • Integration has failed to address the informal nature of enterprise in Africa.

  • African countries do integration as an add-on to pre-existing colonial arrangements, instead of re-imagining them.

  • Regional integration in Africa has been burdened by mission creep, which makes its goals unclear.

I argue that institutions created by Africa’s leaders for this purpose must facilitate the continent as a space in which every African can thrive and diminish the tendency for national politics to trump shared progress.

The burden of colonial dependency

At the conclusion of the Berlin West Africa Conference in February 1885, European powers and the United States of America appointed themselves “to regulate the conditions most favourable to the development of trade and civilization … in Africa.”

In 1973, a pioneering study of Foreign Investments in the East African Common Market concluded that most of Africa’s post-colonial regional integration arrangements were “based on pre-independence links and institutions.”

For instance, the East African Common Market was successor to Britain’s colonial East African Federation and precursor of today’s East African Community. The Community’s recent effort to expand beyond this original geography has come at the price of cohesion, which endangers it.

Ecowas was the first to transcend patterns of colonial dependency. Uniquely, it included countries that won their independence from France, Portugal and the United Kingdom. Fifty years after Ecowas was founded, recent developments suggest the experience continues to be uneasy.

One reason for this is because the post-colonial association or partnership agreements between the European Union and African, Caribbean and Pacific countries is designed to farm and extract goods that are sent to be processed in Europe. From there, African countries import the processed goods at higher prices. This makes it impossible for Africa to grow industries that can employ its own people to process what it produces.

Informal nature of business activity

Around Africa, colonial rule thrived by routing or taking over indigenous enterprise. Those who survived it did so by going underground or operating informally. Since independence, most governments in the continent have failed to redress this historical pattern criminalising African enterprise.

As recently as 2023, the United Nations Economic Commission for Africa estimated informal cross-border trade in Africa at “between 30% and 72% of formal trade between neighbouring countries.” This excludes a huge proportion of African enterprise from the benefits of regional integration.

Integration as an add on, instead of a shared future

African countries continue to enter into regional integration not to re-imagine but as add-ons to pre-existing colonial arrangements. Recent estimates put the number of these arrangements at over 156. For a continent of 55 countries, this means confounding overlaps of both membership and mission.

In response, many have advocated rationalisation of Africa’s regional integration arrangements.

The AU’s decision to recognise eight regional economic communities was supposed to respond to this. But it has not eliminated the overlaps. For instance, Tanzania and the DRC respectively belong to the EAC and SADC. Eritrea and Sudan were simultaneously in the IGAD, Comesa, and Cen-Sad. French-speaking west African countries belong to both Ecowas and the Economic and Monetary Union of West Africa, better known as l’UEMOA.

What needs to happen next

Popular resentment against continuing colonial projects in parts of Africa may be high but it requires political imagination to transform that into constructive energy.

Burkina Faso, Mali and Niger exited Ecowas following rupture in relations with the colonial power, France. However, they still belong to l’UEMOA, whose currency system is backed by France.

It will take more than formal rules of market access or tax harmonisation to shrink informal trade. Women, for example, do over 70% of informal cross-border trade in Africa. An effective solution to this problem will require better frontier regimes and eliminate policies that discourage women from lawful enterprise.

Addressing mission creep

Rationalisation of Africa’s integration arrangements may already be quietly underway. Much of the focus is on membership overlaps. Since 2000, for instance, Ecowas has lost 25% of its membership, reducing it from 16 to 12 member states. Rwanda has withdrawn from Eccas and Eritrea from IGAD.

But the problem may be lack of clarity in the mission of Africa’s integration arrangements. In addition to economic issues, Africa’s regional integration regimes have also assumed burdens of collective security and governance oversight. The outcomes have been both unconvincing and destabilising. The exit in 2025 of Burkina Faso, Mali, and Niger from Ecowas is a recent example.

Without a clear political commitment to a shared future, Africa’s governments have been unable to manage the contradictions between economic integration, collective security and governance in one mission. The time has come for them to decide what they must prioritise so that regional integration in Africa will finally get the opportunity to prove and improve the continent’s prospects.

The Conversation

Chidi Anselm Odinkalu does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Africa’s trade blocs were designed to unite the continent: four reasons they haven’t delivered – https://theconversation.com/africas-trade-blocs-were-designed-to-unite-the-continent-four-reasons-they-havent-delivered-274471

Cement has a climate problem — here’s how geopolymers with add-ins like cork could help fix it

Source: The Conversation – USA (2) – By Alcina Johnson Sudagar, Research Scientist in Chemistry, Washington University in St. Louis

Portland cement, widely used for concrete, is responsible for about 8% of global greenhouse gas emissions. Photovs/iStock/Getty Images Plus

Concrete is all around you – in the foundation of your home, the bridges you drive over, the sidewalks and buildings of cities. It is often described as the second-most used material by volume on Earth after water.

But the way concrete is made today also makes it a major contributor to climate change.

Portland cement, the key component of concrete, is responsible for about 8% of global greenhouse gas emissions. That’s because it’s made by heating limestone to high temperatures, a process that burns a large amount of fossil fuels for energy and releases carbon dioxide from the limestone in the process.

The good news is that there are alternatives, and they are gaining attention.

Portland cement: A greenhouse gas problem

Cementlike substances have been used in construction for thousands of years. Architects have found evidence of their use in the pyramids of Egypt and the buildings and aqueducts of the Roman Empire.

The Portland cement commonly used in construction today was patented in 1824 by Joseph Aspdin, a British bricklayer.

Modern cement preparation starts with crushing the excavated raw materials limestone and clay and then heating them in a kiln at around 2,650 degrees Fahrenheit (about 1,450 degrees Celsius) to form clinker, a hard, rocklike residue. The clinker is then cooled and ground with gypsum into a fine powder, which is called cement.

About 40% of the carbon dioxide emissions from cement production come from burning fossil fuels to generate the high heat needed to run the kiln. The rest come as the heat converts limestone (calcium carbonate) to lime (calcium oxide), releasing carbon dioxide.

In all, between half a ton and 1 ton of greenhouse gas is released per ton of Portland cement. Cement is a binding agent that, mixed with water, holds aggregate together to create concrete. It makes up about 10% to 15% of the concrete mix by weight.

Alternative technologies can lower emissions

As populations, cities and the need for new infrastructure expand, the use of cement is growing, making it important to find alternatives with lower environmental costs.

Concrete has seen the fastest growth among commonly used construction materials with rising population between 1950 and 2023
As population has increased, annual global Portland cement production has risen with it.
Hao Chen, et al., 2025, CC BY-NC-ND

Some techniques for reducing carbon dioxide emissions include substituting some of the clinker – the hard residue typically made from limestone – with supplementary materials such as clay, or fly ash and slag from industries. Other methods reduce the amount of cement by mixing in waste sawdust or recycled materials like plastics.

The long-term solution for reducing cement’s emissions, however, is to replace traditional cement completely with alternatives. One option is geopolymers made from earthen clay and industrial wastes.

Geopolymers: A more climate-friendly solution

Geopolymers can be made by mixing claylike materials that are rich in aluminum and silicon minerals with a chemical activator through a process called geopolymerization. The activator transforms the silicon and aluminum into a structure that will look like cement. All of this can happen at room temperature.

The major difference between cement and geopolymer is that cement is mainly made of calcium, whereas geopolymers are made of silicon and aluminum with some possible calcium in their structure.

Geopolymers offer advantages with lower number of steps, lower CO2 emission and lower water requirement over Portland cement
How the production of Portland cement and geopolymers compare.
Alcina Johnson Sudagar, CC BY-NC

These geopolymers have been found to possess high strength and durability, including resilience in freeze-thaw cycles and resistance to heat and fire, which are important requirements in construction. Studies have found that some geopolymers can provide comparable if not better strength than traditional cement and, because they don’t require heat the way clinker does, they can be produced with significantly lower greenhouse gas emissions.

Geopolymers can also be produced from a variety of raw materials rich in aluminum and silicon, including earthen clays, fly ash, blast furnace slag, rice husk ash, iron ore wastes and recycled construction brick waste. Geopolymer technology can be adapted depending on the clay or industrial waste locally available in a region.

A brief history of cement and geopolymers. Geopolymer International.

An added advantage of geopolymers is that changes to the mixture can produce a range of features.

For example, I and my co-researchers at the University of Aveiro in Portugal added a small amount of cork industry waste – the leftovers from creating bottle corks – to clay-based geopolymer and found it could improve the strength of the material by up to twofold. The cork particles filled the spaces in the geopolymer structure, making it denser, which increased the strength.

Similarly, additives such as sisal fibers from the agave plant, recycled plastic and steel fibers can change geopolymer properties. The additives do not participate in the geopolymerization process but act as fillers in the structure.

The structure of geopolymers can also be designed to act as adsorbents, attracting toxic metals in wastewater and capturing and storing radioactive wastes. Specifically, incorporating materials like zeolite that are natural adsorbents in the geopolymer structure can make them useful for such applications as well.

Where geopolymers are used now

Geopolymers have been used in many types of construction, including roads, coatings, 3D printing, coastal environmental protection, the steel and chemical industries, sewer rehabilitation and building radiation shielding and rocket launchpad and bunker infrastructure.

One of the earliest examples of a modern geopolymer concrete project was the Brisbane West Wellcamp airport in Australia.

It was built in 2014 with 70,000 metric tons of geopolymer concrete, which was estimated to have reduced the project’s carbon dioxide emissions by as much as 80%.

The geopolymer market is currently estimated to be between US$7 billion and $10 billion, with the largest growth in the Asia-Pacific region.

Analysts have estimated that the market could grow at a rate of 10% to 20% per year and reach about $62 billion by 2033.

In several countries, greenhouse gas regulations and green-building certifications are expected to support the continued growth of geopolymers in the construction industry.

Expanding the use of cement alternatives

The advantage of using industrial wastes in geopolymers is a double-edged sword, however. The composition of industrial wastes varies, so it can be difficult to standardize the processing methods. The geopolymer components need to be mixed in particular ratios to achieve desired properties.

Producing the activator for the geopolymer, typically done in chemical facilities, can raise the cost and contribute to the carbon footprint. And the long-term data about these materials’ stability is only now being developed given their newness. Also, these geopolymers can take longer to set than cement, though the setting time can be sped up by using raw materials that react quickly.

Developing cheaper, naturally available activators like agricultural waste rice husk with sustainable supply chains could help lower the costs and environmental impact. Also, printing the recipe on the raw material packaging could help simplify the job of determining the mixing ratio so geopolymers can be more widely used with confidence.

Even though geopolymer technology has some drawbacks, these low-carbon alternatives have great potential for reducing emissions from the construction sector.

The Conversation

Alcina Johnson Sudagar has received funding from GeoBioTec.

ref. Cement has a climate problem — here’s how geopolymers with add-ins like cork could help fix it – https://theconversation.com/cement-has-a-climate-problem-heres-how-geopolymers-with-add-ins-like-cork-could-help-fix-it-270354

La Chine se réarme à marche forcée, mais peut-elle vraiment rivaliser ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

La Chine se réarme massivement pour réduire son écart avec les États-Unis et consolider son statut de grande puissance. Son budget de défense augmente régulièrement, finance une modernisation rapide (marine, missiles, nucléaire) et place déjà les dépenses militaires de Pékin au rang des toutes premières mondiales, même si Washington demeure loin en tête de classement. Reste que l’Armée populaire de libération n’a plus mené de guerre majeure depuis le conflit sino‑vietnamien de 1979, si bien que l’on ignore comment elle encaisserait, en conditions réelles, une confrontation longue et coûteuse, par exemple autour de Taïwan.


Le réarmement chinois répond à une logique assez claire : il s’agit de rattraper les États-Unis dans la course au statut de première puissance mondiale et de se doter des moyens de reconquérir Taïwan dans les années à venir. Pékin veut dissuader, contraindre et se hisser au rang de superpuissance complète, non seulement économique et normative, mais également militaire. La montée en puissance est impressionnante. Les usines chinoises produisent avions, véhicules, bâtiments de guerre et missiles, entre autres, de manière massive. Reste à savoir si cette montée en puissance, impressionnante, réelle, traduit déjà un avantage face aux États-Unis en cas de confrontation militaire.

Le budget officiel de la défense de la République populaire de Chine (RPC) fait l’objet d’une hausse continue, et ses forces sont modernisées de manière accélérée, notamment en matière navale, nucléaire et de missiles. Le réarmement chinois n’est plus une perspective lointaine, c’est une réalité documentée. Si l’on se réfère aux bases de données internationales, la Chine est désormais parmi les tout premiers acteurs mondiaux en matière de dépenses militaires.

Néanmoins, la puissance militaire ne se réduit ni à la qualité ni à la quantité dde troupes et de matériels qu’un pays peut accumuler. Elle se juge également au travers de l’expérience opérationnelle réelle, de la qualité du commandement et de la capacité à durer en guerre moderne. Un parallèle peut être trouvé en Europe. La Pologne et l’Allemagne ont entamé un processus de réarmement réel. Mais ces armées mettront encore longtemps à devenir aussi performantes que l’armée française, habituée aux interventions extérieures et n’ayant pas la crainte des inévitables pertes humaines.

Un réarmement visible, chiffrable, assumé

Le mouvement se lit d’abord dans les budgets. Le budget de la défense chinoise se situe autour de 250 milliards de dollars (210,7 milliards d’euros), soit environ quatre fois le budget français, même si la RPC est encore loin du budget des États-Unis (autour de 962 milliards de dollars, soit plus de 810 milliards d’euros).

Le montant officiel des dépenses chinoises n’est pas toujours strictement comparable à celui d’autres pays en raison de périmètres budgétaires différents, mais il est l’expression d’une tendance : des hausses régulières, sur la durée, qui financent équipements, entraînement, recherche et développement (R&D) et transformation organisationnelle.

Certes, l’augmentation des dépenses militaires est un phénomène perceptible à l’échelle mondiale ; mais l’effort chinois est particulièrement vigoureux. La zone Indo-Pacifique, qui est la zone directe d’intérêt des Chinois, est devenue un centre de gravité de la compétition stratégique.

Pourquoi maintenant : rattrapage, modernisation, obsession du « retard » à combler

Dans le narratif chinois, la modernisation de l’armée n’est pas qu’un symbole de l’aspiration à devenir la première puissance mondiale en 2049 (année du centième anniversaire de l’avènement de la Chine communiste). La Chine ne veut plus « subir » et a donc décidé de combler, avant tout vis-à-vis des États-Unis, son écart technologique, capacitaire et organisationnel. Il s’agit de passer d’une armée principalement terrestre, très nombreuse en hommes, à un outil capable d’opérations conjointes.

Comme l’indique explicitement le dernier livre blanc officiel chinois, l’interopérabilité des différentes armées (terre, air, mer, espace, cyber) n’est pas totalement achevée et la numérisation du champ de bataille doit être accélérée, afin d’obtenir une force « de classe mondiale » au milieu du siècle. Pour les Chinois, cette modernisation reflète une obsession de crédibilité. En effet, exister comme superpuissance implique, aux yeux de Pékin, d’avoir une armée capable de dissuader, de contraindre et, si nécessaire, de vaincre.

Une logique de compétition avec Washington, mais pas le même type de puissance

La rivalité sino-américaine est centrale dans le réarmement chinois. Il ne s’agit pas seulement d’une course aux budgets mais d’une course aux capacités. Les États-Unis financent une posture mondiale, en rapport avec la superpuissance dominante qu’ils demeurent. Leur armée est structurée dans certaines parties du monde dans le cadre d’alliances, est capable de déploiements multi-théâtres et possède une expérience des opérations extérieures. Autant de capacités dont la Chine n’a pas encore fait la démonstration.

Mais la Chine cherche d’abord à réduire la liberté d’action américaine dans sa zone d’intérêt immédiat. Pour cela, elle aspire à rendre toute intervention de Washington plus risquée et plus coûteuse. Dans ce cadre, Pékin effectue d’importants efforts en matière de missiles, de défense aérienne, de capteurs, de guerre électronique, de capacités cyber et spatiales, tout en développant, comme nous venons de le voir, ses moyens navals et aériens.

L’objectif n’est donc pas nécessairement de « copier » la puissance américaine. Il s’agit de compliquer sa projection de puissance, en saturant les défenses des États-
Unis et de leurs alliés (principalement Taïwan, la Corée du Sud et le Japon).

Taïwan en ligne de mire : dissuader l’intervention, crédibiliser l’option militaire

Taïwan est une obsession chinoise de longue date et justifie en partie la montée en puissance de l’armée de la RPC.

Pékin peut conquérir l’île par divers moyens : la contraindre à se rendre à travers un blocus naval ou l’envahir militairement. Dans tous les cas, la Chine veut pouvoir imposer un fait accompli ou, si l’intervention armée est décidée, décourager l’aide extérieure à Taipei en tablant sur la crainte que pourraient inspirer ses nouvelles capacités.




À lire aussi :
Comment la Chine s’y prendrait-elle pour envahir Taïwan ?


La gesticulation régulière à laquelle procède la RPC autour de Taïwan (pression aérienne et navale, exercices, démonstrations de lancements de missiles) a pour fonction de montrer à Washington et à alliés que, sur ce dossier, la détermination de Pékin est absolue. Dans l’optique chinoise, l’objectif demeure de lui faire comprendre que le coût de l’escalade pourrait être très élevé. En rendant l’environnement opérationnel plus contesté, elle rend tout engagement des États-Unis plus coûteux.

Le nucléaire, accélérateur de statut – et de méfiance

Le nucléaire est l’expression parfaite de la bascule chinoise vers la puissance totale souhaitée à l’horizon 2049, parce qu’il touche au cœur de la dissuasion.

Les estimations publiques concluent à une expansion et à une modernisation de l’arsenal chinois, avec l’objectif d’atteindre 1 000 têtes à l’horizon 2030. Une telle progression de l’arsenal chinois modifie les calculs de stabilité stratégique et alimente les inquiétudes régionales.

Certes, les chiffres exacts restent incertains. Mais l’augmentation de l’arsenal nucléaire est une certitude. Ce phénomène change de facto la posture chinoise qui s’éloigne d’une posture de dissuasion minimale – l’équivalent de la « stricte suffisance » française – pour évoluer vers des capacités intimidantes et donc, par définition, plus agressives et démonstratives. L’augmentation de l’arsenal nucléaire chinois renforce le statut du pays, mais accroît aussi la méfiance qu’il suscite et durcit la compétition.

« Puissante sur le papier » : l’angle mort du « combat proven »

C’est ici que la prudence s’impose et doit être répétée. Les matériels, les budgets et les exercices ne remplacent pas l’épreuve du conflit. Or la Chine n’a pas, sur la période récente, l’expérience opérationnelle d’une guerre comparable à celle qui a forgé les réflexes de plusieurs armées, notamment américaine, française, britannique ou russe (même si cette dernière offre plutôt un contre-exemple en termes d’efficacité).

Le fait que la Chine n’ait plus combattu depuis 1979 ne prouve pas une faiblesse intrinsèque, mais questionne l’efficacité réelle de son armée le jour où elle se retrouvera sous stress, face à la surprise. Quelle sera son endurance morale ? Saura-t-elle supporter des pertes et s’adapter quand le plan initial devra être modifié sous la pression de la réponse adverse ? Une partie de la littérature stratégique rappelle au demeurant que moderniser une armée n’est pas qu’un processus technique et industriel, mais relève aussi d’une transformation humaine et organisationnelle.

Guerre moderne : ce que les chiffres ne mesurent pas (coordination, logistique, commandement, attrition)

Le grand public mesure souvent la qualité d’une armée à ses capacités létales. Pour autant, l’efficacité d’une armée se joue également au regard de qualités plus discrètes, telles la logistique, la maintenance, la capacité à durer, la formation des cadres, la circulation de l’information ou encore la résilience des communications sous attaque, comme la guerre entre la Russie et l’Ukraine l’a encore bien démontré, le plus souvent au détriment des Russes.

Un scénario militaire autour de Taïwan, objectif permanent de Pékin, serait un test majeur pour l’armée chinoise. En effet, l’invasion de l’île s’opérerait sous contraintes sévères : opérations maritimes et aériennes complexes ; distances maritimes importantes à parcourir (ce qui implique une grande vulnérabilité des flux) ; intensité de la guerre électronique ; et, probablement, une attrition rapide. Le matériel compte, c’est une affaire entendue. Mais la « capacité système », c’est-à-dire la capacité de planifier, de coordonner, de ravitailler, de réparer ou de remplacer, compte au moins tout autant. La qualité du haut commandement sera également vite testée dans sa capacité à réagir justement et vite dans l’incertitude.

La Chine est-elle capable de rivaliser avec les États-Unis ? Assurément. Est-elle capable de les dominer ? Non, à brève échéance. Mais la question reste ouverte pour les décennies à venir. La Chine a su construire, et continue de le faire, un outil militaire redoutable, surtout dans sa zone d’intérêt immédiat. Son plan de réarmement est cohérent, réel et fait l’objet d’une volonté politique assumée. Pour autant, l’écart est encore grand entre une armée chinoise en construction et sans expérience du combat et une armée américaine, elle aussi en cours de modernisation mais expérimentée. La maîtrise éprouvée d’opérations complexes sous le feu, sur la durée, avec des pertes et des imprévus est ce qui fait d’une armée moderne une armée moderne et efficace. C’est la réduction de cet écart, pas seulement en volume et en budget mais en qualité opérationnelle, qui seule permettra à la Chine de peut-être, un jour, supplanter la domination des États-Unis.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Chine se réarme à marche forcée, mais peut-elle vraiment rivaliser ? – https://theconversation.com/la-chine-se-rearme-a-marche-forcee-mais-peut-elle-vraiment-rivaliser-275457

Faut-il recourir à l’immigration pour lutter contre les déserts médicaux ?

Source: The Conversation – France in French (3) – By Iñaki Blanco-Cazeaux, Post-doctorant en économie de la santé, Université Bourgogne Europe

La pénurie globale de médecins en France et leur inégale répartition selon les territoires représentent l’un des enjeux des élections municipales de mars 2026. Pour lutter contre les déserts médicaux dans les zones où l’offre de soin est insuffisante, le système de santé fait appel à un contingent de praticiennes et praticiens étrangers issus de pays non membres de l’Union européenne. Avec quelle efficacité et quels sont les écueils à court et à long terme ?


La lutte contre les déserts médicaux est un enjeu international. En France, les inégalités d’accès aux soins, notamment pour des raisons territoriales, constituent une priorité des politiques de santé. Améliorer l’offre de soins à disposition de la population est également un des sujets de la campagne des prochaines élections municipales, particulièrement dans les territoires ruraux, même si, en périphérie des grandes agglomérations, des départements comme la Seine-Saint-Denis, présentée comme « le premier désert médical de France », ne sont pas non plus épargnés. Cette préoccupation repose sur un double constat : la pénurie globale de praticiens et leur répartition territoriale déséquilibrée.

Une des réponses politiques à ce problème est le recours aux médecins étrangers. Par exemple, en 2025, les décrets n°2025-467 et 468 ont ainsi visé à simplifier la régularisation des praticiens à diplôme hors Union européenne (Padhue).




À lire aussi :
À l’hôpital, ces praticiens non européens qui pallient les pénuries de médecins


Qu’en est-il des résultats de ces politiques en France et ailleurs ? Quelle est leur utilité à court terme ? Quels en sont les défis à long terme ? Un ensemble de travaux de recherche permettent de répondre à ces questions.

Combler les pénuries à court terme

Différents contextes ont montré que le recours aux médecins étrangers a permis de combler le manque d’offre médicale dans les zones rurales et/ou sous-desservies. Effectivement, cela permet une croissance rapide de l’offre de soins, contrairement à l’augmentation du nombre d’étudiants pour lesquels une décennie de formation est nécessaire, ce qui coûte en temps et en argent. Ainsi, lorsque des politiques publiques visent à orienter ces médecins vers les zones qui en ont le plus besoin, cela y réduit les pénuries à court terme.

De son côté, la France a connu une nette progression des effectifs de médecins diplômés à l’étranger depuis 2007, notamment grâce à la directive européenne de 2005 qui reconnaît automatiquement les qualifications professionnelles des praticien·nes ayant des diplômes européens. Une étude de l’Institut de recherche et de documentation en économie de la santé (Irdes) a montré que l’arrivée des médecins généralistes libéraux diplômés à l’étranger renforce l’offre de soins dans les zones sous-dotées, comme les marges rurales et les espaces périurbains.

Des politiques coercitives ou incitatives

Dans le cadre de ces politiques, deux stratégies sont possibles. L’une est coercitive, comme le programme de dérogation Conrad 30 aux États-Unis ou la section 19 AB du Health Insurance Act en Australie, dans la mesure où les médecins étrangers doivent travailler un certain temps en désert médical pour pouvoir exercer. L’autre est incitative, comme les programmes provinciaux d’immigration au Canada ou la liste des compétences en pénurie à long terme en Nouvelle-Zélande, mettant en place des ressources pour attirer les travailleurs qualifiés étrangers (y compris des médecins).

En France, la liberté d’installation est un principe fondamental de la médecine libérale, même si elle est de plus en plus contestée. Il n’y a donc pas de mécanisme coercitif pour que les médecins diplômés au sein de l’Union européenne s’installent en zone de sous-densité médicale.

En revanche, jusqu’à récemment, les praticiens à diplôme hors Union européenne (Padhue) devaient effectuer un « parcours de consolidation des compétences » durant lequel ils étaient affectés dans des structures de santé où les besoins sont les plus importants. Ce dispositif a cependant été assoupli en 2025 afin de faciliter l’installation pérenne des Padhue en France. Toutefois, leur orientation (par les agences régionales de santé, ou ARS), avant d’être pleinement autorisés à exercer en France, est supposée se faire selon les besoins locaux.

Bien que l’on puisse penser que les politiques coercitives luttent mieux contre les déserts médicaux que les politiques incitatives, cela n’a a priori pas été démontré. Un cadre coercitif, comme aux États-Unis, subit d’ailleurs ses propres limites puisque, là-bas, les déserts médicaux urbains bénéficient davantage des médecins étrangers que les déserts médicaux ruraux.

Des difficultés de rétention et d’intégration

Si ces politiques sont efficaces à court terme, on note cependant que les médecins étrangers ont tendance à être plus mobiles et à rester moins longtemps dans les déserts médicaux que les diplômés nationaux. En effet, l’intégration culturelle, linguistique, sociale et les conditions de travail sont des obstacles pour les médecins étrangers et leurs familles dans les communautés rurales.

Ces problèmes d’intégration peuvent également se manifester par des discriminations à l’encontre des médecins étrangers, certains subissant de la xénophobie ou du racisme. De même, les systèmes de santé dans lesquels ils sont impliqués ne les considèrent pas nécessairement a priori comme des médecins équivalents aux autres, ce qui peut induire un sentiment de déconsidération.

Un préjudice pour les systèmes de santé fragiles des pays d’origine

De plus, le recours aux médecins étrangers met en évidence un manque d’autosuffisance des pays développés pour gérer leurs propres pénuries médicales. Une telle dépendance rend l’accès aux soins vulnérable aux changements dans les politiques d’immigration et dans le contexte international. Si les médecins étrangers devaient se retirer, il y aurait sur l’accès aux soins une incidence négative aussi rapide que l’effet positif de l’immigration.

C’est de surcroît un processus préjudiciable aux pays en développement, contribuant à la fuite des cerveaux, notamment en Afrique et en Asie du Sud-Est. Ce phénomène affaiblit les systèmes de santé déjà fragiles des pays en développement, exacerbant les pénuries de médecins dans leurs propres zones mal desservies et créant des inégalités mondiales en matière d’accès aux soins.

Le recours à l’immigration de médecins est donc une politique qui tend à perpétuer, si ce n’est à amplifier, les inégalités Nord-Sud en matière de développement humain.

Une politique d’immigration qui ne peut pas tout

Les difficultés posées par le recours aux médecins étrangers supposent de ne pas s’en contenter.

Assurer la viabilité de l’accès aux soins pour tous sur le long terme suppose :

  • des investissements importants pour atteindre un nombre de praticiens suffisants dans chaque spécialité,

  • d’améliorer les conditions de travail et de vie dans les zones sous-dotées en personnel soignant, notamment dans les territoires ruraux, afin de les rendre plus attractives,

  • et de mettre en œuvre une planification efficace de l’offre de soin dans les déserts médicaux.

The Conversation

Iñaki Blanco-Cazeaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Faut-il recourir à l’immigration pour lutter contre les déserts médicaux ? – https://theconversation.com/faut-il-recourir-a-limmigration-pour-lutter-contre-les-deserts-medicaux-275114

La santé, un enjeu incontournable des prochaines élections municipales

Source: The Conversation – France in French (3) – By Laurent Chambaud, Médecin de santé publique, École des hautes études en santé publique (EHESP)

Alors que l’échelon des collectivités locales est particulièrement pertinent en matière de santé, les freins qui s’opposent à une réelle « territorialisation » de la santé sont nombreux. Fruit des échanges entre Laurent Chambaud, médecin de santé publique et inspecteur général des affaires sociales, qui a dirigé l’École des hautes études en santé publique (EHESP) de 2013 à 2022 et Gilbert Hangard, adjoint au maire d’Albi délégué à la santé et président de l’association Élus Santé Publique et Territoires (ESPT), ce texte fait le point sur la situation, à la veille des élection municipales 2026.


L’intérêt des Français pour leur santé ne se dément pas. Sur la période 2007 à 2022, ce sujet figurait selon l’Insee dans le top 3 de leurs principales préoccupations, une tendance confirmée par plusieurs sondages d’opinion.

Au fil des décennies, un élargissement progressif du périmètre d’intervention de la santé est maintenant acquis. Elle intègre désormais les déterminants sociauxDéterminants sociaux de la santé
Les déterminants sociaux de la santé sont les circonstances dans lesquelles les individus naissent, grandissent, vivent, travaillent et vieillissent ainsi que les systèmes mis en place pour faire face à la maladie.
, environnementauxDéterminants environnementaux de la santé
Ici, l’environnement est compris aussi bien au sens écologique qu’au sens du logement, du travail, de l’aménagement urbain, du tissu social, etc.
et comportementauxLes déterminants comportementaux de la santé
Les déterminants comportementaux de la santé regroupent l’ensemble des comportements individuels et collectifs qui ont une influence directe sur la santé : tabagisme et autres addictions, consommation d’alcool, sédentarité, régime alimentaire inapproprié, etc.
de la santé, conformément aux cadres proposés par l’OMS (Organisation mondiale de la santé).

Cette évolution a conduit à reconnaître le rôle essentiel des territoires dans la production de la santé et du bien-être. Même dans un pays comme la France, où le système de santé est centré sur le soin et ne reconnaît que marginalement la prévention et la promotion de la santé, ce changement devient inéluctable. Pour cette raison, il est essentiel que les questions de santé soient débattues dans le cadre des élections locales. Revenons sur les arguments qui plaident en ce sens.

Trois arguments en faveur d’un ancrage territorial des politiques de santé

Le premier argument en faveur de l’échelon des collectivités territoriales s’appuie sur le fait que la grande majorité des déterminants de la santé se concrétisent et sont perceptibles au niveau des lieux de vie, de travail, d’éducation…

Qu’il s’agisse de mettre en place une politique de mobilité active (qui peut s’inscrire dans le contexte plus large d’un aménagement du territoire visant à favoriser la transition écologique), de lutter contre des environnements polluants, de faire régresser les déserts médicaux, de circonscrire l’impact sanitaire des addictions, ou de lutter contre les inégalités de santé, l’échelon des collectivités territoriales s’avère essentiel pour incarner et adapter la stratégie nationale de santé.

Autre argument soulignant l’importance des collectivités territoriales : ces dernières sont des laboratoires d’innovation publique. Cette dynamique, réelle, est documentée depuis plus de dix ans, notamment dans les domaines de la coordination des acteurs, de la prévention populationnelle ou de la participation citoyenne.

Les exemples les plus fréquents et concrets sont les politiques locales de sport santé (dont les maisons sport santé) et les dispositifs territoriaux de santé mentale portés via les Conseils locaux de Santé mentale (CLSM). D’autres initiatives se développent, comme les services médicaux de proximité co-construits par les villes pour lutter contre les déserts médicaux, ou les plateformes d’entraide créées par plusieurs municipalités pour « aller vers » les publics isolés et permettre de conserver ou de développer les liens de proximité.

Enfin, un troisième argument est que le principe de « la santé dans toutes les politiques » formulé par l’OMS en 2014 constitue aujourd’hui un référentiel largement partagé. Il repose sur l’idée que la santé est influencée par l’ensemble des politiques publiques et à son tour, doit être prise en compte dans l’élaboration de politiques publiques dans de nombreux domaines.

De la même manière, le développement du concept « One Health » (une seule santé), demande à agir en prônant une approche transversale. Or les collectivités de proximité sont de véritables « tisseurs de politiques intersectorielles », ayant développé une compétence et un savoir-faire particuliers dans ce domaine.

La place stratégique des collectivités locales

Étant en mesure d’agir sur l’urbanisme, les mobilités, l’environnement, l’alimentation, le sport, la petite enfance et la vie scolaire ou la cohésion sociale, les collectivités locales apparaissent donc comme des acteurs stratégiques. Dans le même temps, les élus de proximité sont également interrogés sur l’organisation du système de santé, que ce soit du fait des déserts médicaux, ou de la disponibilité des structures et services pour accompagner les personnes âgées dépendantes.

Cette reconnaissance du rôle que les collectivités locales ont à jouer en matière de santé s’accompagne cependant d’une question centrale : disposent-elles réellement des moyens et des cadres institutionnels nécessaires pour assumer ces responsabilités croissantes ?

Les politiques territoriales de santé reposent actuellement sur des dispositifs contractuels (Contrats locaux de Santé, projets territoriaux, appels à projets…), qui favorisent l’innovation, mais entretiennent une ambiguïté institutionnelle. La santé demeure une compétence principalement étatique, tandis que les collectivités sont incitées à agir en mobilisant des compétences facultatives qui se révèlent « de plus en plus essentielles ».

Ainsi, ces dispositifs font peser une responsabilité importante sur les exécutifs locaux en matière de résultats, alors que les financements font régulièrement l’objet de discussions et négociations avec l’État qui dispose d’une compétence inscrite dans la loi. Dans ces conditions, nombre d’entre elles rechignent à se saisir de ces enjeux, pour diverses raisons.

Des questions financières

Le premier de ces freins majeurs est financier : le risque d’un transfert implicite des responsabilités de l’État vers les collectivités, sans transfert équivalent de moyens. Dans le contexte budgétaire actuel, cette logique conduit à transformer l’échelon local en amortisseur des défaillances structurelles du système national de santé, alors même que la soutenabilité de l’action locale est menacée.

Par ailleurs, si l’innovation de ces territoires est souvent saluée, l’innovation territoriale repose fréquemment sur des financements fragiles. En effet, bien souvent, les dispositifs innovants sont financés via des appels à projets, régionaux ou nationaux, limités dans le temps. Ce qui pose très vite la question de leur pérennité. Les expérimentations dites « article 51 » illustrent cette situation malsaine.

Développées dans le cadre de la loi de financement de la Sécurité sociale de 2018, ces expérimentations, qui ont mobilisé de nombreux acteurs locaux, n’arrivent pas à être généralisées ou simplement pérennisées. De plus, sur le terrain, la mise en œuvre de la transversalité se heurte à la segmentation administrative, à la rareté de l’ingénierie territoriale et à l’absence d’arbitrages clairs entre objectifs concurrents. Faute de hiérarchisation, la transversalité peut diluer les responsabilités et ralentir la prise de décision.

Un déficit d’évaluation

Peu de politiques territoriales de santé font l’objet d’analyses longitudinales, de comparaisons inter-territoriales ou d’évaluations économiques. Malgré la multiplication des initiatives locales, l’évaluation rigoureuse de leurs impacts reste limitée.

Ce déficit d’évaluation constitue une limite structurelle à la pérennité de l’action, car il affaiblit la capacité à distinguer les dispositifs réellement efficaces de ceux qui relèvent principalement d’une logique symbolique ou communicationnelle.

Les arbitrages, des angles morts

Autre frein : les arbitrages dans le domaine de la santé constituent souvent un angle mort du discours territorial. Les politiques de santé et de transition impliquent des choix politiques structurants : allocation des ressources, priorisation des publics, acceptabilité sociale des mesures. Or, le discours sur l’action locale tend à « naturaliser » ces politiques comme des évidences consensuelles.

Cette dépolitisation apparente masque des conflits d’intérêts légitimes et peut fragiliser la légitimité démocratique de l’action publique locale.

La nécessité d’arbitrage de politiques locales pour des raisons de santé publique peut s’illustrer par la mise en œuvre des Zones à Faible Emission (ZFE). La pollution atmosphérique est responsable de plus de 40 000 décès par an en France et les données scientifiques confirment le rôle positif de ces mesures de restriction de la circulation pour les véhicules les plus polluants. Pourtant, cette mesure fait l’objet de nombreuses contestations et alimente de nombreuses fausses informations.

La nécessité d’un cadre clair

Un point important à souligner est qu’une territorialisation de la santé sans cadre explicite pourrait avoir des effets négatifs, notamment dans l’offre de services ou dans le déploiement d’interventions en santé.

Il existe en effet des écarts significatifs en termes de ressources financières, de compétences techniques et de capital politique entre les différentes collectivités locales. Les territoires les mieux dotés concentrent les expérimentations, tandis que les collectivités les plus fragiles peinent à s’inscrire dans les dispositifs existants.

Les choix politiques peuvent également influencer la volonté de développer, voire juste préserver des dispositifs existants ou à venir. Ainsi, si certaines municipalités s’engagent dans des Contrats locaux de Santé, d’autres n’y voient pas d’intérêt ou ignorent même leur existence.

La territorialisation des politiques de santé, censée réduire les inégalités, peut paradoxalement contribuer à les renforcer si elle n’est pas accompagnée de mécanismes de solidarité et de péréquation.

Les collectivités locales au cœur d’un paradoxe

Toute cette situation crée un paradoxe : les collectivités sont appelées à jouer un rôle central à la fois dans la prévention et la réduction des inégalités de santé, ainsi que dans l’organisation en proximité de notre système de santé. Cependant, elles n’ont aucun pouvoir structurant sur les leviers essentiels du système de soins ou de redistribution…

Par ailleurs, le pouvoir central conserve un rôle stratégique et de cadrage des politiques. Les systèmes de santé évoluent vers une complexité croissante et la multiplication d’acteurs autonomes (établissements de santé, établissements médico-sociaux, acteurs libéraux, monde associatif, industries pharmaceutiques, acteurs technologiques…). Ainsi, l’État n’a plus les moyens humains, organisationnels et financiers pour mettre en œuvre sur le terrain des politiques de santé. Pourtant il rechigne à partager ses compétences et fragilise l’échelon régional de régulation, c’est-à-dire les Agences Régionales de Santé, chargées de traduire les orientations nationales sans disposer de leviers suffisants.

Tirer les leçons de la pandémie de Covid-19

Les collectivités locales constituent un levier indispensable pour répondre aux défis sanitaires, sociaux et environnementaux contemporains. Après la canicule de 2003, qui a montré le rôle majeur des dispositifs de proximité, la crise causée par la pandémie de Covid-19 a mis en lumière ce maillon indispensable pour la pleine efficacité d’une politique publique au plus près de la population (le dernier kilomètre).

Dans ce moment exceptionnel, elles ont par exemple mis en place de nombreux centres de dépistage et de vaccination, en mobilisant des locaux municipaux et du personnel. Elles ont aussi assuré la distribution de masques, le soutien aux personnes isolées (livraison de courses, aide sociale) et l’adaptation des services publics (écoles, transports, aides aux entreprises locales).

Pour autant, et en l’absence d’un retour d’expérience partagé entre État et collectivités locales sur les enseignements à en tirer pour avancer sur une territorialisation des politiques de santé, à ce jour rien n’a vraiment changé dans la répartition des compétences et des moyens qui doivent être investis pour promouvoir, rétablir et préserver la santé des populations.

Un rôle à repenser pour les collectivités de proximité

Les prochaines élections municipales constituent un moment stratégique pour mettre la santé territoriale au cœur du débat, car la commune agit déjà sur de nombreux déterminants (urbanisme, mobilités, pollution, logement, nature, sport, alimentation) et est interpellée régulièrement sur l’organisation en proximité de notre système de santé. Les candidats cherchent des projets concrets et visibles, et ces sujets de santé parlent directement au quotidien des habitants.

L’enjeu est de présenter la santé comme une politique de qualité de vie, pas seulement comme une question médicale. Il est temps d’interpeller les échelons central et régional sur le nécessaire cadrage des politiques de santé et sur la garantie d’une équité des dispositifs sur l’ensemble du territoire.

Dans le même temps, il est indispensable de proposer un plan municipal de santé, de garantir la présence d’un élu référent, et de mettre en place des dispositifs de concertation (à l’instar du contrat local de santé). De telles initiatives permettront de structurer des actions locales crédibles et de fédérer largement.

Pour conclure, soulignons que la montée en responsabilité des collectivités de proximité en matière de santé ne saurait se substituer à une politique nationale structurante. Une territorialisation efficace se doit d’être lucide et suppose un cadre institutionnel clair, des moyens pérennes, une évaluation robuste et une reconnaissance explicite des arbitrages politiques. À défaut, l’ambition territoriale ne fera que fragiliser l’action publique au lieu de la renforcer.


Pour aller plus loin :

– Le site de l’association Élus Santé Publique et Territoires (ESPT), dont l’objet est la promotion et la reconnaissance du rôle des villes et des élus locaux en santé.

The Conversation

Laurent Chambaud est membre de Place Publique

ref. La santé, un enjeu incontournable des prochaines élections municipales – https://theconversation.com/la-sante-un-enjeu-incontournable-des-prochaines-elections-municipales-275294

Quelle taxe foncière pour les prochains élus municipaux ?

Source: The Conversation – France in French (3) – By Thomas Eisinger, Professeur associé en droit, gestion financière et management des collectivités, Aix-Marseille Université (AMU)

Le mode de calcul de la taxe foncière sur les propriétés bâties est le résultat de l’estimation de la valeur de votre bien immobilier par un taux d’imposition. Hjbc/Shutterstock

En vue des élections municipales, de nombreux candidates et candidats proposent de créer de nouveaux services pour leurs électeurs. Une solution évidente pour financer ces nouvelles dépenses : la taxe foncière sur les propriétés bâties, pourtant déjà en hausse de 19 % entre 2020 et 2024. Décryptage de cette taxe locale incontournable.


Cet article est une version mise à jour et enrichie d’un article publié le 13 septembre 2023 : « Hausse de la taxe foncière : vers l’infini et au-delà ? »

La campagne pour les élections municipales des 15 et 22 mars prochain bat son plein. Une chose est sûre, quel que soit le résultat des urnes, il va falloir trouver de l’argent. Les candidats de tous bords ne manquent pas d’idées qui, quels que soient leurs mérites sociaux ou économiques (c’est un autre débat), ont pour dénominateur commun de mettre sous pression les fragiles équilibres budgétaires communaux.

La gratuité de certains services publics est une proposition à la mode, que ce soit pour les transports ou pour l’école primaire – kits de rentrée, cantine scolaire. Des augmentations d’effectifs sont annoncées, de préférence pour des agents bien visibles sur le terrain comme les policiers municipaux. Il faudra bien trouver des ressources pour financer toutes ces mesures. Le volontaire tout trouvé, comme sur la précédente mandature, ce serait la taxe foncière sur les propriétés bâties, première recette fiscale de nos communes.

Mais pourra-t-elle, sur les six prochaines années, être aussi sollicitée que sur les six dernières ? Divulgachie : a priori non.

Comment est déterminée votre taxe foncière

Attention, nous ne parlerons ici que de votre seule taxe foncière sur les propriétés bâties, qui ne représente, aussi contre-intuitif que cela puisse paraître, qu’une partie de la somme à payer figurant sur la première page de votre avis d’imposition. D’autres prélèvements sont effectués avec la taxe foncière sur les propriétés bâties : la taxe d’enlèvement des ordures ménagères (à l’objet éponyme), la taxe dite GEMAPI (visant à financer la gestion des milieux aquatiques et la prévention des inondations), certaines taxes spéciales d’équipement, etc.

Concernant votre taxe foncière sur les propriétés bâties, son mode de calcul est assez simple : elle est le résultat du produit d’une assiette, en l’espèce l’estimation de la valeur de votre bien immobilier, par un taux d’imposition. La responsabilité de l’évolution annuelle de ces deux composantes est partagée.

La valeur locative cadastrale – l’estimation évoquée plus haut dans son appellation administrative – fluctue chaque année en fonction d’un indice de révision. Jusqu’à récemment (on y reviendra), ce dernier était voté par les parlementaires dans le cadre de la loi de finances. Le taux lui relève, depuis le début des années 1980, des collectivités locales récipiendaires de l’impôt (aujourd’hui, les communes et les intercommunalités), qui le votent chaque année en parallèle de l’adoption de leur budget primitif.

Hausse incontrôlée de l’assiette, à l’insu de notre plein gré

En 2025, l’indexation générale des bases de votre taxe foncière a augmenté de 1,7 %. En 2026, ce devrait être de 0,8 %. Une séquence de relative modération, qui fait suite une augmentation beaucoup plus significative – 3,4 % en 2022 et 7,1 % en 2023. Pour mémoire, la hausse annuelle était en moyenne de 1,6 % entre 2005 et 2015. La mandature 2020-2026 aura ainsi été marquée par une forte hausse de l’assiette de cet impôt.

Comment expliquer une telle augmentation, alors que l’on pourrait imaginer les députés et sénateurs soucieux de préserver le pouvoir d’achat de nos concitoyens ? Depuis le début des années 1980, ce sont bien les parlementaires qui déterminaient l’indexation annuelle de cette assiette. Officiellement, ils tenaient « compte de la variation des loyers ». En réalité, ils étaient toujours attentifs au contexte économique et social.

Dans le cadre de la loi de finances pour 2017, dans une démarche positiviste qui collait bien à l’esprit (initial) de la législature, ces mêmes parlementaires ont fait le choix d’automatiser et donc de dépolitiser cette hausse. Elle se fera désormais sur la base de l’indice des prix à la consommation. S’il était impossible à l’époque d’anticiper le retour de l’inflation que nous avons connu par la mandature 2020-2026, on peut reconnaître que les parlementaires ont été bien malheureux de renoncer à l’époque à cette prérogative (discutable certes) qui était historiquement la leur.

Entre 2020 et 2024, une hausse déjà significative du taux voté par certaines communes

On pourrait légitimement se dire que, si l’assiette augmente au niveau de l’inflation comme nous venons de le voir, le taux de la taxe foncière aurait pu justement lui rester stable. Il n’en a rien été, pour plusieurs raisons.

D’une part, parce que les autres recettes de fonctionnement des communes et de leurs intercommunalités augmentent elles bien moins vite que l’inflation. Les dotations versées par l’État, qui rappelons-le augmentaient il y a encore une quinzaine d’années du niveau de l’inflation et d’une partie de la croissance, se stabilisent après avoir connu quelques années de baisse (contribution du secteur local à la maîtrise des finances publiques).

D’autre part, parce que la taxe d’habitation a disparu, comme une décennie avant elle la taxe professionnelle. Bien qu’elle ait été compensée à l’euro près dans les budgets locaux, aucun nouveau levier fiscal n’est venu combler le vide qu’elle laissait. Résultat, quand il s’agit d’augmenter les ressources budgétaires, les exécutifs locaux ne peuvent plus mettre en œuvre de réelle stratégie fiscale (quelle catégorie de contribuables solliciter davantage cette année ?) et n’ont presque plus qu’une seule option : augmenter la taxe foncière.

Et ce ne sont là que les principales explications. Restaurer les équilibres budgétaires après quelques années de « quoi qu’il en coûte » à la sauce locale, absorber les hausses budgétaires imposées par l’État comme la hausse de la rémunération des fonctionnaires, trouver les moyens de contribuer à la transition écologique… Autant de raisons, plus ou moins légitimes, que les élus locaux ont mobilisées pour justifier la hausse des taux qu’ils ont décidé.

Certes, lorsque l’on regarde les chiffres globaux, la mandature qui s’achève ne se caractérise pas par une hausse générale et massive des taux de taxe foncière (+7 % “seulement” entre 2020 et 2024). Mais certaines des plus grandes villes de France ont effectivement fait le choix d’utiliser ce levier fiscal dans des proportions inédites et largement relayées à l’époque par le presse quotidienne régionale et nationale. Autant de marges de manoeuvre qu’il sera, sur les territoires concernés, inenvisageagbles de remobiliser après 2026.

Un levier fiscal injuste… donc en théorie moins légitime à mobiliser ?

Au-delà de l’explosion constatée sur la mandature qui s’achève de l’assiette indexée et des taux votés, la taxe foncière sur les propriétés bâties porte en elle, dans la configuration actuelle, plusieurs problématiques significatives de justice fiscale.

Un, la valeur de votre habitation n’est structurellement pas le meilleur moyen d’appréhender votre capacité contributive, vos « facultés » sur la base desquelles les impôts sont sensés être levés. S’il n’est pas illégitime d’avoir une assiette autre que les revenus pour certains impôts, cela devient plus problématique lorsque cette assiette concerne un prélèvement significatif en termes de volume. C’est le cas pour la taxe foncière aujourd’hui pour bon nombre de ménages. Selon l’Insee, la taxe foncière représente plus de 4 % du revenu disponible pour les 20 % des propriétaires aux revenus les plus modestes.

Deux, l’appréciation par l’administration de la valeur de votre habitation n’est même pas bonne. Calculée au début des années 1970, elle est aujourd’hui largement déconnectée de la réalité du marché immobilier. Malheureusement, et c’est un des paradoxes informels de la légistique fiscale, plus une situation est injuste et plus il est difficile d’y remédier. La séquence de l’automne dernier peut laisser songeur quant à notre capacité collective à réaliser un jour cet exercice de réforme.

Trois, avec la suppression de la taxe d’habitation, l’augmentation de la pression fiscale, désormais concentrée sur la taxe foncière sur les propriétés bâties, soulève une véritable question de démocratie locale. En effet, une partie des financeurs de la dynamique budgétaire communale sont les propriétaires non-résidents (non-électeurs, serait-on tentés de souligner), alors que dans le même temps les locataires (électeurs) sont eux dispensés de presque tout effort fiscal. Taxation without representation + representation without taxation : tout cela ne semble pas tenable sur le temps long.

Au regard de la double dynamique inédite de l’assiette et des taux constatés sur la mandature 2020-2026 et de ces questionnements afférents à la justice fiscale (un sujet désormais majeur dans le débat public), la modération fiscale devrait en théorie être de rigueur en 2026-2022. Elle aurait même pu être une proposition de campagne majeure. Cependant, il est peu probable que la facture ne s’alourdisse pas dans les prochaines années, au regard des ambitions affichées par les candidats de tout bord. Reste à voir ce qu’en seront les répercussions, sur les finances publiques comme (et c’est peut-être plus problématique) sur la démocratie locale.

The Conversation

Thomas Eisinger est administrateur de l’AFIGESE (association des financiers, contrôleurs de gestion et évaluateurs du secteur public local)

ref. Quelle taxe foncière pour les prochains élus municipaux ? – https://theconversation.com/quelle-taxe-fonciere-pour-les-prochains-elus-municipaux-273623

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

Source: The Conversation – France in French (2) – By Raffaele F Ciriello, Senior Lecturer in Business Information Systems, University of Sydney

OpenAI affirme que des règles strictes encadreront l’intégration publicitaire mais l’histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l’offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d’un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

ref. En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses – https://theconversation.com/en-ouvrant-chatgpt-a-la-publicite-openai-expose-lia-a-des-derives-dangereuses-275748

How a largely forgotten Supreme Court case can help prevent an executive branch takeover of federal elections

Source: The Conversation – USA – By Derek T. Muller, Professor of Law, University of Notre Dame

Georgia General Election 2020 ballots are loaded by the FBI onto trucks at the Fulton County Election hub on Jan. 28, 2026, in Union City, Ga. AP Photo/Mike Stewart

The recent FBI search of the Fulton County, Georgia, elections facility and the seizure of election-related materials pursuant to a warrant has attracted concern for what it might mean for future elections.

What if a determined executive branch used federal law enforcement to seize election materials to sow distrust in the results of the 2026 midterm congressional elections?

Courts and states should be wary when an investigation risks commandeering the evidence needed to ascertain election results. That is where a largely forgotten Supreme Court case from the 1970s matters, a case about an Indiana recount that sets important guardrails to prevent post-election chaos in federal elections.

A clipping from a Nov. 4, 1970 newspaper with the headline 'Hartke in close battle for Senate.'
The day after Election Day in 1970, votes were very close in the Indiana election for U.S. Senate. A challenge to the outcome would lead to an important U.S. Supreme Court case.
The Purdue Exponent, Nov. 4, 1970

Congress’s constitutionally-delegated role

The case known as Roudebush v. Hartke arose from a razor-thin U.S. Senate race in Indiana in 1970. The ballots were cast on Election Day, and the state counted and verified the results, a process known as the “canvass.” The state certified R. Vance Hartke as the winner. Typically, the certified winner presents himself to Congress, which accepts his certificate of election and seats the member to Congress.

The losing candidate, Richard L. Roudebush, invoked Indiana’s recount procedures. Hartke then sued to stop the recount. He argued that a state recount would intrude on the power of each chamber, the Senate or the House of Representatives, to judge its own elections under Article I, Section 5 of the U.S. Constitution. That clause gives each chamber the sole right to judge elections. No one else can interfere with that power.

Hartke worried that a recount might result in ballots that could be altered or destroyed, which would diminish the ability of the Senate to engage in a meaningful examination of the ballots if an election contest arose.

But the Supreme Court rejected that argument.

It held that a state recount does not “usurp” the Senate’s authority because the Senate remains free to make the ultimate judgment of who won the election. The recount can be understood as producing new information – in this case, an additional set of tabulated results – without stripping the Senate of its final say.

Furthermore, there was no evidence that a recount board would be “less honest or conscientious in the performance of its duties” than the original precinct boards that tabulated the election results the first time around, the court said.

A state recount, then, is perfectly acceptable, as long as it does not impair the power of Congress.

In the Roudebush decision, the court recognized that states run the mechanics of congressional elections as part of their power under Article I, Section 4 of the U.S. Constitution to set the “Times, Places and Manner of holding Elections for Senators and Representatives,” subject to Congress’s own regulation.

At the same time, each chamber of Congress judges its own elections, and courts and states should not casually interfere with that core constitutional function. They cannot engage in behaviors that usurp Congress’s constitutionally-delegated role in elections.

The U.S. Capitol dome in a photo at night with a dark blue sky behind it.
Each chamber of Congress judges its own elections, with no interference by courts and states with that core constitutional function.
David Shvartsman, Moment/Getty Images

Evidence can be power

The Fulton County episode is legally and politically fraught not because federal agents executed a warrant – courts authorize warrants all the time – but because of what was seized: ballots, voting machines, tabulation equipment and related records.

Those items are not just evidence. They are also the raw materials for the canvassing of votes and certification of winners. They provide the foundation for audits and recounts. And, importantly, they are necessary for any later inquiry by Congress if a House or Senate race becomes contested.

That overlap creates a structural problem: If a federal investigation seizes, damages, or destroys election materials, it can affect who has the power to assess the election. It can also inject uncertainty into the chain of custody: Because ballots are removed from absentee envelopes or transferred from Election Day precincts to county election storage facilities, states ensure the ballots cast on Election Day are the only ones tabulated, and that ballots are not lost or destroyed in the process.

Disrupting this chain of custody by seizing ballots, however, can increase, rather than decrease, doubts about the reliability of election results.

That is the modern version of “usurpation.”

From my perspective as an election law scholar, Roudebush is a reminder that courts should be skeptical of executive actions that shift decisive control over election proof away from the institutions the Constitution expects to do the judging.

Congress doesn’t just adjudicate contests

A screenshot of a news story with a headline that says 'Congressional election observers deploy to Iowa for recount in uncalled House race.'
Congressional election observers were sent to Iowa in 2024 to monitor a recount.
Fox News

There is another institutional reason courts should be cautious about federal actions that seize or compromise election materials: The House already has a long-running capacity to observe state election administration in close congressional races.

The Committee on House Administration maintains an Election Observer Program. That program deploys credentialed House staff to be on-site at local election facilities in “close or difficult” House elections. That staff observes casting, processing, tabulating and canvassing procedures.

The program exists for a straightforward reason: If the House may be called upon to judge a contested election under Article I, Section 5, it has an institutional interest in understanding how the election was administered and how records were handled.

That observation function is not hypothetical. The committee has publicly announced deployments of congressional observers to watch recount processes in tight House races throughout the country.

I saw it take place first-hand in 2020. The House deployed election observers in Iowa’s 2nd Congressional District to oversee a recount of a congressional election that was ultimately certified by a margin of just six votes.

Democratic and Republican observers from the House politely observed, asked questions, and kept records – but never interfered with the state election apparatus or attempted to lay hands on election equipment or ballots.

Congress has not rejected a state’s election results since 1984, and for good reason. States now have meticulous recordkeeping, robust chain-of-custody procedures for ballots, and multiple avenues of verifying the accuracy of results. And with Congress watching, state results are even more trustworthy.

When federal investigations collide with election materials

Evidence seizures can adversely affect election administration. So courts and states ought to be vigilant, enforcing guardrails that help respect institutional boundaries.

To start, any executive branch effort to unilaterally inject itself into a state election apparatus should face meaningful scrutiny. Unlike the Fulton County warrant, which targeted an election nearly six years old, warrants that interrupt ongoing state processes in an election threaten to usurp the constitutional role of Congress. And executive action cannot proceed if it impinges upon the ultimate ability of Congress to judge the election of its members.

In the exceedingly unlikely event that a court issues a warrant, a court should not permit seizure of election equipment and ballots during a state’s ordinary post-election canvass. Instead, inspection of items, provision of copies of election materials, or orders to preserve evidence are more tailored means to accomplish the same objectives. And courts should establish clear chain-of-custody procedures in the event that evidence must be preserved for a future seizure in a federal investigation.

The fear driving much public commentary about the danger to midterm elections is not merely that election officials will be investigated or that evidence would be seized. It is that investigations could be used as a pretense to manage or, worse, disrupt elections – chilling administrators, disorganizing record keeping or manufacturing doubt by disrupting custody of ballots and systems.

Roudebush provides a constitutional posture that courts should adopt, a recognition that some acts can usurp the power of Congress to judge elections. That will provide a meaningful constraint on the executive ahead of the 2026 election and reduce the risk of intervention in an ongoing election.

The Conversation

Derek T. Muller does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How a largely forgotten Supreme Court case can help prevent an executive branch takeover of federal elections – https://theconversation.com/how-a-largely-forgotten-supreme-court-case-can-help-prevent-an-executive-branch-takeover-of-federal-elections-275603

Pregnancy and pre-eclampsia: is aspirin the answer for everyone?

Source: The Conversation – UK – By Patricia Maguire, Professor, School of Biomolecular and Biomedical Science, University College Dublin

Irin Fierce/Shutterstock.com

A new study has ignited the debate over whether every pregnant woman should take low-dose aspirin.

For years, it has been recommended for women at high risk of pre-eclampsia. This dangerous condition can cause high blood pressure and organ damage. The argument for giving it to all pregnant women is straightforward: current screening isn’t perfect, and pre-eclampsia can be hard to predict.

Aspirin is cheap, widely available and generally safe, which makes it tempting to give it to everyone. But medicine rarely works well as a one-size-fits-all solution. The reality is that we still lack tools to identify early in pregnancy when placentas might struggle to support a baby.

Aspirin works by making platelets, the tiny blood cells that form clots, less likely to stick together. In pre-eclampsia, the placenta can trigger inflammation and overactive platelets, reducing blood flow to the baby. By reducing the stickiness of platelets, aspirin helps maintain healthy blood flow between the mother and the baby.

A pregnant woman on a bed.
Aspirin helps maintain healthy blood flow between mother and baby.
New Africa/Shutterstock.com

If aspirin is so effective, why not give it to everyone? In heart medicine, healthy older adults were once routinely advised to take daily low-dose aspirin, but several studies have showed that long-term bleeding risks outweigh the benefits and guidance has recently changed. Pregnancy is a much shorter window with treatment lasting only a few months, so the risk of serious bleeding in an otherwise healthy young woman is very low, and the consequences of pre-eclampsia can be severe.

Even so, aspirin doesn’t work the same way for everyone. Standard doses may be too low for women with a higher body mass index or increased blood volume. Absorption can be unpredictable, especially with enteric-coated tablets (which protect the stomach lining) or changes in digestion during pregnancy. And if tablets aren’t taken consistently, the drug can’t do its job.

Right now, doctors decide who should take aspirin mostly based on a woman’s medical history and known risk factors. This simple approach works, but it can miss some women who go on to develop pre-eclampsia, while others are treated just to be safe.

More advanced testing – combining a woman’s medical history with blood pressure checks, blood tests that show how well the placenta is working, and ultrasound scans – can spot more cases. The downside is that these tests need specialist training, extra equipment, and more time, which aren’t always available in everyday care.

The future: better biomarkers

My research looks at platelets and the tiny particles they release, called extracellular vesicles. These microscopic signals reflect how the placenta and maternal environment are interacting, and could identify problems months before symptoms appear. One day, such tests could guide personalised treatment, helping doctors know who really needs aspirin and who may not.

For now, if your doctor has prescribed aspirin in pregnancy, it’s important to continue taking it. It is a safe, effective and evidence-based treatment for women at higher risk of pre-eclampsia. But as science progresses, there’s real potential to move from broad guidelines to personalised care, giving every mother and baby the best chance of a healthy pregnancy.

This article was commissioned in conjunction with Prototypes for Humanity, a global initiative that showcases and accelerates academic innovation to solve social and environmental challenges. The Conversation is the media partner of Prototypes for Humanity 2025.

The Conversation

This article was commissioned in conjunction with Prototypes for Humanity, a global initiative that showcases and accelerates academic innovation to solve social and environmental challenges. The Conversation is the media partner of Prototypes for Humanity 2025. Patricia Maguire works for University College Dublin, Ireland, researching platelets and their role in pre-eclampsia. She receives funding from Enterprise Ireland and Research Ireland.

ref. Pregnancy and pre-eclampsia: is aspirin the answer for everyone? – https://theconversation.com/pregnancy-and-pre-eclampsia-is-aspirin-the-answer-for-everyone-275897