Cement has a climate problem — here’s how geopolymers with add-ins like cork could help fix it

Source: The Conversation – USA (2) – By Alcina Johnson Sudagar, Research Scientist in Chemistry, Washington University in St. Louis

Portland cement, widely used for concrete, is responsible for about 8% of global greenhouse gas emissions. Photovs/iStock/Getty Images Plus

Concrete is all around you – in the foundation of your home, the bridges you drive over, the sidewalks and buildings of cities. It is often described as the second-most used material by volume on Earth after water.

But the way concrete is made today also makes it a major contributor to climate change.

Portland cement, the key component of concrete, is responsible for about 8% of global greenhouse gas emissions. That’s because it’s made by heating limestone to high temperatures, a process that burns a large amount of fossil fuels for energy and releases carbon dioxide from the limestone in the process.

The good news is that there are alternatives, and they are gaining attention.

Portland cement: A greenhouse gas problem

Cementlike substances have been used in construction for thousands of years. Architects have found evidence of their use in the pyramids of Egypt and the buildings and aqueducts of the Roman Empire.

The Portland cement commonly used in construction today was patented in 1824 by Joseph Aspdin, a British bricklayer.

Modern cement preparation starts with crushing the excavated raw materials limestone and clay and then heating them in a kiln at around 2,650 degrees Fahrenheit (about 1,450 degrees Celsius) to form clinker, a hard, rocklike residue. The clinker is then cooled and ground with gypsum into a fine powder, which is called cement.

About 40% of the carbon dioxide emissions from cement production come from burning fossil fuels to generate the high heat needed to run the kiln. The rest come as the heat converts limestone (calcium carbonate) to lime (calcium oxide), releasing carbon dioxide.

In all, between half a ton and 1 ton of greenhouse gas is released per ton of Portland cement. Cement is a binding agent that, mixed with water, holds aggregate together to create concrete. It makes up about 10% to 15% of the concrete mix by weight.

Alternative technologies can lower emissions

As populations, cities and the need for new infrastructure expand, the use of cement is growing, making it important to find alternatives with lower environmental costs.

Concrete has seen the fastest growth among commonly used construction materials with rising population between 1950 and 2023
As population has increased, annual global Portland cement production has risen with it.
Hao Chen, et al., 2025, CC BY-NC-ND

Some techniques for reducing carbon dioxide emissions include substituting some of the clinker – the hard residue typically made from limestone – with supplementary materials such as clay, or fly ash and slag from industries. Other methods reduce the amount of cement by mixing in waste sawdust or recycled materials like plastics.

The long-term solution for reducing cement’s emissions, however, is to replace traditional cement completely with alternatives. One option is geopolymers made from earthen clay and industrial wastes.

Geopolymers: A more climate-friendly solution

Geopolymers can be made by mixing claylike materials that are rich in aluminum and silicon minerals with a chemical activator through a process called geopolymerization. The activator transforms the silicon and aluminum into a structure that will look like cement. All of this can happen at room temperature.

The major difference between cement and geopolymer is that cement is mainly made of calcium, whereas geopolymers are made of silicon and aluminum with some possible calcium in their structure.

Geopolymers offer advantages with lower number of steps, lower CO2 emission and lower water requirement over Portland cement
How the production of Portland cement and geopolymers compare.
Alcina Johnson Sudagar, CC BY-NC

These geopolymers have been found to possess high strength and durability, including resilience in freeze-thaw cycles and resistance to heat and fire, which are important requirements in construction. Studies have found that some geopolymers can provide comparable if not better strength than traditional cement and, because they don’t require heat the way clinker does, they can be produced with significantly lower greenhouse gas emissions.

Geopolymers can also be produced from a variety of raw materials rich in aluminum and silicon, including earthen clays, fly ash, blast furnace slag, rice husk ash, iron ore wastes and recycled construction brick waste. Geopolymer technology can be adapted depending on the clay or industrial waste locally available in a region.

A brief history of cement and geopolymers. Geopolymer International.

An added advantage of geopolymers is that changes to the mixture can produce a range of features.

For example, I and my co-researchers at the University of Aveiro in Portugal added a small amount of cork industry waste – the leftovers from creating bottle corks – to clay-based geopolymer and found it could improve the strength of the material by up to twofold. The cork particles filled the spaces in the geopolymer structure, making it denser, which increased the strength.

Similarly, additives such as sisal fibers from the agave plant, recycled plastic and steel fibers can change geopolymer properties. The additives do not participate in the geopolymerization process but act as fillers in the structure.

The structure of geopolymers can also be designed to act as adsorbents, attracting toxic metals in wastewater and capturing and storing radioactive wastes. Specifically, incorporating materials like zeolite that are natural adsorbents in the geopolymer structure can make them useful for such applications as well.

Where geopolymers are used now

Geopolymers have been used in many types of construction, including roads, coatings, 3D printing, coastal environmental protection, the steel and chemical industries, sewer rehabilitation and building radiation shielding and rocket launchpad and bunker infrastructure.

One of the earliest examples of a modern geopolymer concrete project was the Brisbane West Wellcamp airport in Australia.

It was built in 2014 with 70,000 metric tons of geopolymer concrete, which was estimated to have reduced the project’s carbon dioxide emissions by as much as 80%.

The geopolymer market is currently estimated to be between US$7 billion and $10 billion, with the largest growth in the Asia-Pacific region.

Analysts have estimated that the market could grow at a rate of 10% to 20% per year and reach about $62 billion by 2033.

In several countries, greenhouse gas regulations and green-building certifications are expected to support the continued growth of geopolymers in the construction industry.

Expanding the use of cement alternatives

The advantage of using industrial wastes in geopolymers is a double-edged sword, however. The composition of industrial wastes varies, so it can be difficult to standardize the processing methods. The geopolymer components need to be mixed in particular ratios to achieve desired properties.

Producing the activator for the geopolymer, typically done in chemical facilities, can raise the cost and contribute to the carbon footprint. And the long-term data about these materials’ stability is only now being developed given their newness. Also, these geopolymers can take longer to set than cement, though the setting time can be sped up by using raw materials that react quickly.

Developing cheaper, naturally available activators like agricultural waste rice husk with sustainable supply chains could help lower the costs and environmental impact. Also, printing the recipe on the raw material packaging could help simplify the job of determining the mixing ratio so geopolymers can be more widely used with confidence.

Even though geopolymer technology has some drawbacks, these low-carbon alternatives have great potential for reducing emissions from the construction sector.

The Conversation

Alcina Johnson Sudagar has received funding from GeoBioTec.

ref. Cement has a climate problem — here’s how geopolymers with add-ins like cork could help fix it – https://theconversation.com/cement-has-a-climate-problem-heres-how-geopolymers-with-add-ins-like-cork-could-help-fix-it-270354

La Chine se réarme à marche forcée, mais peut-elle vraiment rivaliser ?

Source: The Conversation – in French – By Laurent Vilaine, Docteur en sciences de gestion, ancien officier, enseignant en géopolitique à ESDES Business School, ESDES – UCLy (Lyon Catholic University)

La Chine se réarme massivement pour réduire son écart avec les États-Unis et consolider son statut de grande puissance. Son budget de défense augmente régulièrement, finance une modernisation rapide (marine, missiles, nucléaire) et place déjà les dépenses militaires de Pékin au rang des toutes premières mondiales, même si Washington demeure loin en tête de classement. Reste que l’Armée populaire de libération n’a plus mené de guerre majeure depuis le conflit sino‑vietnamien de 1979, si bien que l’on ignore comment elle encaisserait, en conditions réelles, une confrontation longue et coûteuse, par exemple autour de Taïwan.


Le réarmement chinois répond à une logique assez claire : il s’agit de rattraper les États-Unis dans la course au statut de première puissance mondiale et de se doter des moyens de reconquérir Taïwan dans les années à venir. Pékin veut dissuader, contraindre et se hisser au rang de superpuissance complète, non seulement économique et normative, mais également militaire. La montée en puissance est impressionnante. Les usines chinoises produisent avions, véhicules, bâtiments de guerre et missiles, entre autres, de manière massive. Reste à savoir si cette montée en puissance, impressionnante, réelle, traduit déjà un avantage face aux États-Unis en cas de confrontation militaire.

Le budget officiel de la défense de la République populaire de Chine (RPC) fait l’objet d’une hausse continue, et ses forces sont modernisées de manière accélérée, notamment en matière navale, nucléaire et de missiles. Le réarmement chinois n’est plus une perspective lointaine, c’est une réalité documentée. Si l’on se réfère aux bases de données internationales, la Chine est désormais parmi les tout premiers acteurs mondiaux en matière de dépenses militaires.

Néanmoins, la puissance militaire ne se réduit ni à la qualité ni à la quantité dde troupes et de matériels qu’un pays peut accumuler. Elle se juge également au travers de l’expérience opérationnelle réelle, de la qualité du commandement et de la capacité à durer en guerre moderne. Un parallèle peut être trouvé en Europe. La Pologne et l’Allemagne ont entamé un processus de réarmement réel. Mais ces armées mettront encore longtemps à devenir aussi performantes que l’armée française, habituée aux interventions extérieures et n’ayant pas la crainte des inévitables pertes humaines.

Un réarmement visible, chiffrable, assumé

Le mouvement se lit d’abord dans les budgets. Le budget de la défense chinoise se situe autour de 250 milliards de dollars (210,7 milliards d’euros), soit environ quatre fois le budget français, même si la RPC est encore loin du budget des États-Unis (autour de 962 milliards de dollars, soit plus de 810 milliards d’euros).

Le montant officiel des dépenses chinoises n’est pas toujours strictement comparable à celui d’autres pays en raison de périmètres budgétaires différents, mais il est l’expression d’une tendance : des hausses régulières, sur la durée, qui financent équipements, entraînement, recherche et développement (R&D) et transformation organisationnelle.

Certes, l’augmentation des dépenses militaires est un phénomène perceptible à l’échelle mondiale ; mais l’effort chinois est particulièrement vigoureux. La zone Indo-Pacifique, qui est la zone directe d’intérêt des Chinois, est devenue un centre de gravité de la compétition stratégique.

Pourquoi maintenant : rattrapage, modernisation, obsession du « retard » à combler

Dans le narratif chinois, la modernisation de l’armée n’est pas qu’un symbole de l’aspiration à devenir la première puissance mondiale en 2049 (année du centième anniversaire de l’avènement de la Chine communiste). La Chine ne veut plus « subir » et a donc décidé de combler, avant tout vis-à-vis des États-Unis, son écart technologique, capacitaire et organisationnel. Il s’agit de passer d’une armée principalement terrestre, très nombreuse en hommes, à un outil capable d’opérations conjointes.

Comme l’indique explicitement le dernier livre blanc officiel chinois, l’interopérabilité des différentes armées (terre, air, mer, espace, cyber) n’est pas totalement achevée et la numérisation du champ de bataille doit être accélérée, afin d’obtenir une force « de classe mondiale » au milieu du siècle. Pour les Chinois, cette modernisation reflète une obsession de crédibilité. En effet, exister comme superpuissance implique, aux yeux de Pékin, d’avoir une armée capable de dissuader, de contraindre et, si nécessaire, de vaincre.

Une logique de compétition avec Washington, mais pas le même type de puissance

La rivalité sino-américaine est centrale dans le réarmement chinois. Il ne s’agit pas seulement d’une course aux budgets mais d’une course aux capacités. Les États-Unis financent une posture mondiale, en rapport avec la superpuissance dominante qu’ils demeurent. Leur armée est structurée dans certaines parties du monde dans le cadre d’alliances, est capable de déploiements multi-théâtres et possède une expérience des opérations extérieures. Autant de capacités dont la Chine n’a pas encore fait la démonstration.

Mais la Chine cherche d’abord à réduire la liberté d’action américaine dans sa zone d’intérêt immédiat. Pour cela, elle aspire à rendre toute intervention de Washington plus risquée et plus coûteuse. Dans ce cadre, Pékin effectue d’importants efforts en matière de missiles, de défense aérienne, de capteurs, de guerre électronique, de capacités cyber et spatiales, tout en développant, comme nous venons de le voir, ses moyens navals et aériens.

L’objectif n’est donc pas nécessairement de « copier » la puissance américaine. Il s’agit de compliquer sa projection de puissance, en saturant les défenses des États-
Unis et de leurs alliés (principalement Taïwan, la Corée du Sud et le Japon).

Taïwan en ligne de mire : dissuader l’intervention, crédibiliser l’option militaire

Taïwan est une obsession chinoise de longue date et justifie en partie la montée en puissance de l’armée de la RPC.

Pékin peut conquérir l’île par divers moyens : la contraindre à se rendre à travers un blocus naval ou l’envahir militairement. Dans tous les cas, la Chine veut pouvoir imposer un fait accompli ou, si l’intervention armée est décidée, décourager l’aide extérieure à Taipei en tablant sur la crainte que pourraient inspirer ses nouvelles capacités.




À lire aussi :
Comment la Chine s’y prendrait-elle pour envahir Taïwan ?


La gesticulation régulière à laquelle procède la RPC autour de Taïwan (pression aérienne et navale, exercices, démonstrations de lancements de missiles) a pour fonction de montrer à Washington et à alliés que, sur ce dossier, la détermination de Pékin est absolue. Dans l’optique chinoise, l’objectif demeure de lui faire comprendre que le coût de l’escalade pourrait être très élevé. En rendant l’environnement opérationnel plus contesté, elle rend tout engagement des États-Unis plus coûteux.

Le nucléaire, accélérateur de statut – et de méfiance

Le nucléaire est l’expression parfaite de la bascule chinoise vers la puissance totale souhaitée à l’horizon 2049, parce qu’il touche au cœur de la dissuasion.

Les estimations publiques concluent à une expansion et à une modernisation de l’arsenal chinois, avec l’objectif d’atteindre 1 000 têtes à l’horizon 2030. Une telle progression de l’arsenal chinois modifie les calculs de stabilité stratégique et alimente les inquiétudes régionales.

Certes, les chiffres exacts restent incertains. Mais l’augmentation de l’arsenal nucléaire est une certitude. Ce phénomène change de facto la posture chinoise qui s’éloigne d’une posture de dissuasion minimale – l’équivalent de la « stricte suffisance » française – pour évoluer vers des capacités intimidantes et donc, par définition, plus agressives et démonstratives. L’augmentation de l’arsenal nucléaire chinois renforce le statut du pays, mais accroît aussi la méfiance qu’il suscite et durcit la compétition.

« Puissante sur le papier » : l’angle mort du « combat proven »

C’est ici que la prudence s’impose et doit être répétée. Les matériels, les budgets et les exercices ne remplacent pas l’épreuve du conflit. Or la Chine n’a pas, sur la période récente, l’expérience opérationnelle d’une guerre comparable à celle qui a forgé les réflexes de plusieurs armées, notamment américaine, française, britannique ou russe (même si cette dernière offre plutôt un contre-exemple en termes d’efficacité).

Le fait que la Chine n’ait plus combattu depuis 1979 ne prouve pas une faiblesse intrinsèque, mais questionne l’efficacité réelle de son armée le jour où elle se retrouvera sous stress, face à la surprise. Quelle sera son endurance morale ? Saura-t-elle supporter des pertes et s’adapter quand le plan initial devra être modifié sous la pression de la réponse adverse ? Une partie de la littérature stratégique rappelle au demeurant que moderniser une armée n’est pas qu’un processus technique et industriel, mais relève aussi d’une transformation humaine et organisationnelle.

Guerre moderne : ce que les chiffres ne mesurent pas (coordination, logistique, commandement, attrition)

Le grand public mesure souvent la qualité d’une armée à ses capacités létales. Pour autant, l’efficacité d’une armée se joue également au regard de qualités plus discrètes, telles la logistique, la maintenance, la capacité à durer, la formation des cadres, la circulation de l’information ou encore la résilience des communications sous attaque, comme la guerre entre la Russie et l’Ukraine l’a encore bien démontré, le plus souvent au détriment des Russes.

Un scénario militaire autour de Taïwan, objectif permanent de Pékin, serait un test majeur pour l’armée chinoise. En effet, l’invasion de l’île s’opérerait sous contraintes sévères : opérations maritimes et aériennes complexes ; distances maritimes importantes à parcourir (ce qui implique une grande vulnérabilité des flux) ; intensité de la guerre électronique ; et, probablement, une attrition rapide. Le matériel compte, c’est une affaire entendue. Mais la « capacité système », c’est-à-dire la capacité de planifier, de coordonner, de ravitailler, de réparer ou de remplacer, compte au moins tout autant. La qualité du haut commandement sera également vite testée dans sa capacité à réagir justement et vite dans l’incertitude.

La Chine est-elle capable de rivaliser avec les États-Unis ? Assurément. Est-elle capable de les dominer ? Non, à brève échéance. Mais la question reste ouverte pour les décennies à venir. La Chine a su construire, et continue de le faire, un outil militaire redoutable, surtout dans sa zone d’intérêt immédiat. Son plan de réarmement est cohérent, réel et fait l’objet d’une volonté politique assumée. Pour autant, l’écart est encore grand entre une armée chinoise en construction et sans expérience du combat et une armée américaine, elle aussi en cours de modernisation mais expérimentée. La maîtrise éprouvée d’opérations complexes sous le feu, sur la durée, avec des pertes et des imprévus est ce qui fait d’une armée moderne une armée moderne et efficace. C’est la réduction de cet écart, pas seulement en volume et en budget mais en qualité opérationnelle, qui seule permettra à la Chine de peut-être, un jour, supplanter la domination des États-Unis.

The Conversation

Laurent Vilaine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La Chine se réarme à marche forcée, mais peut-elle vraiment rivaliser ? – https://theconversation.com/la-chine-se-rearme-a-marche-forcee-mais-peut-elle-vraiment-rivaliser-275457

Faut-il recourir à l’immigration pour lutter contre les déserts médicaux ?

Source: The Conversation – France in French (3) – By Iñaki Blanco-Cazeaux, Post-doctorant en économie de la santé, Université Bourgogne Europe

La pénurie globale de médecins en France et leur inégale répartition selon les territoires représentent l’un des enjeux des élections municipales de mars 2026. Pour lutter contre les déserts médicaux dans les zones où l’offre de soin est insuffisante, le système de santé fait appel à un contingent de praticiennes et praticiens étrangers issus de pays non membres de l’Union européenne. Avec quelle efficacité et quels sont les écueils à court et à long terme ?


La lutte contre les déserts médicaux est un enjeu international. En France, les inégalités d’accès aux soins, notamment pour des raisons territoriales, constituent une priorité des politiques de santé. Améliorer l’offre de soins à disposition de la population est également un des sujets de la campagne des prochaines élections municipales, particulièrement dans les territoires ruraux, même si, en périphérie des grandes agglomérations, des départements comme la Seine-Saint-Denis, présentée comme « le premier désert médical de France », ne sont pas non plus épargnés. Cette préoccupation repose sur un double constat : la pénurie globale de praticiens et leur répartition territoriale déséquilibrée.

Une des réponses politiques à ce problème est le recours aux médecins étrangers. Par exemple, en 2025, les décrets n°2025-467 et 468 ont ainsi visé à simplifier la régularisation des praticiens à diplôme hors Union européenne (Padhue).




À lire aussi :
À l’hôpital, ces praticiens non européens qui pallient les pénuries de médecins


Qu’en est-il des résultats de ces politiques en France et ailleurs ? Quelle est leur utilité à court terme ? Quels en sont les défis à long terme ? Un ensemble de travaux de recherche permettent de répondre à ces questions.

Combler les pénuries à court terme

Différents contextes ont montré que le recours aux médecins étrangers a permis de combler le manque d’offre médicale dans les zones rurales et/ou sous-desservies. Effectivement, cela permet une croissance rapide de l’offre de soins, contrairement à l’augmentation du nombre d’étudiants pour lesquels une décennie de formation est nécessaire, ce qui coûte en temps et en argent. Ainsi, lorsque des politiques publiques visent à orienter ces médecins vers les zones qui en ont le plus besoin, cela y réduit les pénuries à court terme.

De son côté, la France a connu une nette progression des effectifs de médecins diplômés à l’étranger depuis 2007, notamment grâce à la directive européenne de 2005 qui reconnaît automatiquement les qualifications professionnelles des praticien·nes ayant des diplômes européens. Une étude de l’Institut de recherche et de documentation en économie de la santé (Irdes) a montré que l’arrivée des médecins généralistes libéraux diplômés à l’étranger renforce l’offre de soins dans les zones sous-dotées, comme les marges rurales et les espaces périurbains.

Des politiques coercitives ou incitatives

Dans le cadre de ces politiques, deux stratégies sont possibles. L’une est coercitive, comme le programme de dérogation Conrad 30 aux États-Unis ou la section 19 AB du Health Insurance Act en Australie, dans la mesure où les médecins étrangers doivent travailler un certain temps en désert médical pour pouvoir exercer. L’autre est incitative, comme les programmes provinciaux d’immigration au Canada ou la liste des compétences en pénurie à long terme en Nouvelle-Zélande, mettant en place des ressources pour attirer les travailleurs qualifiés étrangers (y compris des médecins).

En France, la liberté d’installation est un principe fondamental de la médecine libérale, même si elle est de plus en plus contestée. Il n’y a donc pas de mécanisme coercitif pour que les médecins diplômés au sein de l’Union européenne s’installent en zone de sous-densité médicale.

En revanche, jusqu’à récemment, les praticiens à diplôme hors Union européenne (Padhue) devaient effectuer un « parcours de consolidation des compétences » durant lequel ils étaient affectés dans des structures de santé où les besoins sont les plus importants. Ce dispositif a cependant été assoupli en 2025 afin de faciliter l’installation pérenne des Padhue en France. Toutefois, leur orientation (par les agences régionales de santé, ou ARS), avant d’être pleinement autorisés à exercer en France, est supposée se faire selon les besoins locaux.

Bien que l’on puisse penser que les politiques coercitives luttent mieux contre les déserts médicaux que les politiques incitatives, cela n’a a priori pas été démontré. Un cadre coercitif, comme aux États-Unis, subit d’ailleurs ses propres limites puisque, là-bas, les déserts médicaux urbains bénéficient davantage des médecins étrangers que les déserts médicaux ruraux.

Des difficultés de rétention et d’intégration

Si ces politiques sont efficaces à court terme, on note cependant que les médecins étrangers ont tendance à être plus mobiles et à rester moins longtemps dans les déserts médicaux que les diplômés nationaux. En effet, l’intégration culturelle, linguistique, sociale et les conditions de travail sont des obstacles pour les médecins étrangers et leurs familles dans les communautés rurales.

Ces problèmes d’intégration peuvent également se manifester par des discriminations à l’encontre des médecins étrangers, certains subissant de la xénophobie ou du racisme. De même, les systèmes de santé dans lesquels ils sont impliqués ne les considèrent pas nécessairement a priori comme des médecins équivalents aux autres, ce qui peut induire un sentiment de déconsidération.

Un préjudice pour les systèmes de santé fragiles des pays d’origine

De plus, le recours aux médecins étrangers met en évidence un manque d’autosuffisance des pays développés pour gérer leurs propres pénuries médicales. Une telle dépendance rend l’accès aux soins vulnérable aux changements dans les politiques d’immigration et dans le contexte international. Si les médecins étrangers devaient se retirer, il y aurait sur l’accès aux soins une incidence négative aussi rapide que l’effet positif de l’immigration.

C’est de surcroît un processus préjudiciable aux pays en développement, contribuant à la fuite des cerveaux, notamment en Afrique et en Asie du Sud-Est. Ce phénomène affaiblit les systèmes de santé déjà fragiles des pays en développement, exacerbant les pénuries de médecins dans leurs propres zones mal desservies et créant des inégalités mondiales en matière d’accès aux soins.

Le recours à l’immigration de médecins est donc une politique qui tend à perpétuer, si ce n’est à amplifier, les inégalités Nord-Sud en matière de développement humain.

Une politique d’immigration qui ne peut pas tout

Les difficultés posées par le recours aux médecins étrangers supposent de ne pas s’en contenter.

Assurer la viabilité de l’accès aux soins pour tous sur le long terme suppose :

  • des investissements importants pour atteindre un nombre de praticiens suffisants dans chaque spécialité,

  • d’améliorer les conditions de travail et de vie dans les zones sous-dotées en personnel soignant, notamment dans les territoires ruraux, afin de les rendre plus attractives,

  • et de mettre en œuvre une planification efficace de l’offre de soin dans les déserts médicaux.

The Conversation

Iñaki Blanco-Cazeaux ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Faut-il recourir à l’immigration pour lutter contre les déserts médicaux ? – https://theconversation.com/faut-il-recourir-a-limmigration-pour-lutter-contre-les-deserts-medicaux-275114

La santé, un enjeu incontournable des prochaines élections municipales

Source: The Conversation – France in French (3) – By Laurent Chambaud, Médecin de santé publique, École des hautes études en santé publique (EHESP)

Alors que l’échelon des collectivités locales est particulièrement pertinent en matière de santé, les freins qui s’opposent à une réelle « territorialisation » de la santé sont nombreux. Fruit des échanges entre Laurent Chambaud, médecin de santé publique et inspecteur général des affaires sociales, qui a dirigé l’École des hautes études en santé publique (EHESP) de 2013 à 2022 et Gilbert Hangard, adjoint au maire d’Albi délégué à la santé et président de l’association Élus Santé Publique et Territoires (ESPT), ce texte fait le point sur la situation, à la veille des élection municipales 2026.


L’intérêt des Français pour leur santé ne se dément pas. Sur la période 2007 à 2022, ce sujet figurait selon l’Insee dans le top 3 de leurs principales préoccupations, une tendance confirmée par plusieurs sondages d’opinion.

Au fil des décennies, un élargissement progressif du périmètre d’intervention de la santé est maintenant acquis. Elle intègre désormais les déterminants sociauxDéterminants sociaux de la santé
Les déterminants sociaux de la santé sont les circonstances dans lesquelles les individus naissent, grandissent, vivent, travaillent et vieillissent ainsi que les systèmes mis en place pour faire face à la maladie.
, environnementauxDéterminants environnementaux de la santé
Ici, l’environnement est compris aussi bien au sens écologique qu’au sens du logement, du travail, de l’aménagement urbain, du tissu social, etc.
et comportementauxLes déterminants comportementaux de la santé
Les déterminants comportementaux de la santé regroupent l’ensemble des comportements individuels et collectifs qui ont une influence directe sur la santé : tabagisme et autres addictions, consommation d’alcool, sédentarité, régime alimentaire inapproprié, etc.
de la santé, conformément aux cadres proposés par l’OMS (Organisation mondiale de la santé).

Cette évolution a conduit à reconnaître le rôle essentiel des territoires dans la production de la santé et du bien-être. Même dans un pays comme la France, où le système de santé est centré sur le soin et ne reconnaît que marginalement la prévention et la promotion de la santé, ce changement devient inéluctable. Pour cette raison, il est essentiel que les questions de santé soient débattues dans le cadre des élections locales. Revenons sur les arguments qui plaident en ce sens.

Trois arguments en faveur d’un ancrage territorial des politiques de santé

Le premier argument en faveur de l’échelon des collectivités territoriales s’appuie sur le fait que la grande majorité des déterminants de la santé se concrétisent et sont perceptibles au niveau des lieux de vie, de travail, d’éducation…

Qu’il s’agisse de mettre en place une politique de mobilité active (qui peut s’inscrire dans le contexte plus large d’un aménagement du territoire visant à favoriser la transition écologique), de lutter contre des environnements polluants, de faire régresser les déserts médicaux, de circonscrire l’impact sanitaire des addictions, ou de lutter contre les inégalités de santé, l’échelon des collectivités territoriales s’avère essentiel pour incarner et adapter la stratégie nationale de santé.

Autre argument soulignant l’importance des collectivités territoriales : ces dernières sont des laboratoires d’innovation publique. Cette dynamique, réelle, est documentée depuis plus de dix ans, notamment dans les domaines de la coordination des acteurs, de la prévention populationnelle ou de la participation citoyenne.

Les exemples les plus fréquents et concrets sont les politiques locales de sport santé (dont les maisons sport santé) et les dispositifs territoriaux de santé mentale portés via les Conseils locaux de Santé mentale (CLSM). D’autres initiatives se développent, comme les services médicaux de proximité co-construits par les villes pour lutter contre les déserts médicaux, ou les plateformes d’entraide créées par plusieurs municipalités pour « aller vers » les publics isolés et permettre de conserver ou de développer les liens de proximité.

Enfin, un troisième argument est que le principe de « la santé dans toutes les politiques » formulé par l’OMS en 2014 constitue aujourd’hui un référentiel largement partagé. Il repose sur l’idée que la santé est influencée par l’ensemble des politiques publiques et à son tour, doit être prise en compte dans l’élaboration de politiques publiques dans de nombreux domaines.

De la même manière, le développement du concept « One Health » (une seule santé), demande à agir en prônant une approche transversale. Or les collectivités de proximité sont de véritables « tisseurs de politiques intersectorielles », ayant développé une compétence et un savoir-faire particuliers dans ce domaine.

La place stratégique des collectivités locales

Étant en mesure d’agir sur l’urbanisme, les mobilités, l’environnement, l’alimentation, le sport, la petite enfance et la vie scolaire ou la cohésion sociale, les collectivités locales apparaissent donc comme des acteurs stratégiques. Dans le même temps, les élus de proximité sont également interrogés sur l’organisation du système de santé, que ce soit du fait des déserts médicaux, ou de la disponibilité des structures et services pour accompagner les personnes âgées dépendantes.

Cette reconnaissance du rôle que les collectivités locales ont à jouer en matière de santé s’accompagne cependant d’une question centrale : disposent-elles réellement des moyens et des cadres institutionnels nécessaires pour assumer ces responsabilités croissantes ?

Les politiques territoriales de santé reposent actuellement sur des dispositifs contractuels (Contrats locaux de Santé, projets territoriaux, appels à projets…), qui favorisent l’innovation, mais entretiennent une ambiguïté institutionnelle. La santé demeure une compétence principalement étatique, tandis que les collectivités sont incitées à agir en mobilisant des compétences facultatives qui se révèlent « de plus en plus essentielles ».

Ainsi, ces dispositifs font peser une responsabilité importante sur les exécutifs locaux en matière de résultats, alors que les financements font régulièrement l’objet de discussions et négociations avec l’État qui dispose d’une compétence inscrite dans la loi. Dans ces conditions, nombre d’entre elles rechignent à se saisir de ces enjeux, pour diverses raisons.

Des questions financières

Le premier de ces freins majeurs est financier : le risque d’un transfert implicite des responsabilités de l’État vers les collectivités, sans transfert équivalent de moyens. Dans le contexte budgétaire actuel, cette logique conduit à transformer l’échelon local en amortisseur des défaillances structurelles du système national de santé, alors même que la soutenabilité de l’action locale est menacée.

Par ailleurs, si l’innovation de ces territoires est souvent saluée, l’innovation territoriale repose fréquemment sur des financements fragiles. En effet, bien souvent, les dispositifs innovants sont financés via des appels à projets, régionaux ou nationaux, limités dans le temps. Ce qui pose très vite la question de leur pérennité. Les expérimentations dites « article 51 » illustrent cette situation malsaine.

Développées dans le cadre de la loi de financement de la Sécurité sociale de 2018, ces expérimentations, qui ont mobilisé de nombreux acteurs locaux, n’arrivent pas à être généralisées ou simplement pérennisées. De plus, sur le terrain, la mise en œuvre de la transversalité se heurte à la segmentation administrative, à la rareté de l’ingénierie territoriale et à l’absence d’arbitrages clairs entre objectifs concurrents. Faute de hiérarchisation, la transversalité peut diluer les responsabilités et ralentir la prise de décision.

Un déficit d’évaluation

Peu de politiques territoriales de santé font l’objet d’analyses longitudinales, de comparaisons inter-territoriales ou d’évaluations économiques. Malgré la multiplication des initiatives locales, l’évaluation rigoureuse de leurs impacts reste limitée.

Ce déficit d’évaluation constitue une limite structurelle à la pérennité de l’action, car il affaiblit la capacité à distinguer les dispositifs réellement efficaces de ceux qui relèvent principalement d’une logique symbolique ou communicationnelle.

Les arbitrages, des angles morts

Autre frein : les arbitrages dans le domaine de la santé constituent souvent un angle mort du discours territorial. Les politiques de santé et de transition impliquent des choix politiques structurants : allocation des ressources, priorisation des publics, acceptabilité sociale des mesures. Or, le discours sur l’action locale tend à « naturaliser » ces politiques comme des évidences consensuelles.

Cette dépolitisation apparente masque des conflits d’intérêts légitimes et peut fragiliser la légitimité démocratique de l’action publique locale.

La nécessité d’arbitrage de politiques locales pour des raisons de santé publique peut s’illustrer par la mise en œuvre des Zones à Faible Emission (ZFE). La pollution atmosphérique est responsable de plus de 40 000 décès par an en France et les données scientifiques confirment le rôle positif de ces mesures de restriction de la circulation pour les véhicules les plus polluants. Pourtant, cette mesure fait l’objet de nombreuses contestations et alimente de nombreuses fausses informations.

La nécessité d’un cadre clair

Un point important à souligner est qu’une territorialisation de la santé sans cadre explicite pourrait avoir des effets négatifs, notamment dans l’offre de services ou dans le déploiement d’interventions en santé.

Il existe en effet des écarts significatifs en termes de ressources financières, de compétences techniques et de capital politique entre les différentes collectivités locales. Les territoires les mieux dotés concentrent les expérimentations, tandis que les collectivités les plus fragiles peinent à s’inscrire dans les dispositifs existants.

Les choix politiques peuvent également influencer la volonté de développer, voire juste préserver des dispositifs existants ou à venir. Ainsi, si certaines municipalités s’engagent dans des Contrats locaux de Santé, d’autres n’y voient pas d’intérêt ou ignorent même leur existence.

La territorialisation des politiques de santé, censée réduire les inégalités, peut paradoxalement contribuer à les renforcer si elle n’est pas accompagnée de mécanismes de solidarité et de péréquation.

Les collectivités locales au cœur d’un paradoxe

Toute cette situation crée un paradoxe : les collectivités sont appelées à jouer un rôle central à la fois dans la prévention et la réduction des inégalités de santé, ainsi que dans l’organisation en proximité de notre système de santé. Cependant, elles n’ont aucun pouvoir structurant sur les leviers essentiels du système de soins ou de redistribution…

Par ailleurs, le pouvoir central conserve un rôle stratégique et de cadrage des politiques. Les systèmes de santé évoluent vers une complexité croissante et la multiplication d’acteurs autonomes (établissements de santé, établissements médico-sociaux, acteurs libéraux, monde associatif, industries pharmaceutiques, acteurs technologiques…). Ainsi, l’État n’a plus les moyens humains, organisationnels et financiers pour mettre en œuvre sur le terrain des politiques de santé. Pourtant il rechigne à partager ses compétences et fragilise l’échelon régional de régulation, c’est-à-dire les Agences Régionales de Santé, chargées de traduire les orientations nationales sans disposer de leviers suffisants.

Tirer les leçons de la pandémie de Covid-19

Les collectivités locales constituent un levier indispensable pour répondre aux défis sanitaires, sociaux et environnementaux contemporains. Après la canicule de 2003, qui a montré le rôle majeur des dispositifs de proximité, la crise causée par la pandémie de Covid-19 a mis en lumière ce maillon indispensable pour la pleine efficacité d’une politique publique au plus près de la population (le dernier kilomètre).

Dans ce moment exceptionnel, elles ont par exemple mis en place de nombreux centres de dépistage et de vaccination, en mobilisant des locaux municipaux et du personnel. Elles ont aussi assuré la distribution de masques, le soutien aux personnes isolées (livraison de courses, aide sociale) et l’adaptation des services publics (écoles, transports, aides aux entreprises locales).

Pour autant, et en l’absence d’un retour d’expérience partagé entre État et collectivités locales sur les enseignements à en tirer pour avancer sur une territorialisation des politiques de santé, à ce jour rien n’a vraiment changé dans la répartition des compétences et des moyens qui doivent être investis pour promouvoir, rétablir et préserver la santé des populations.

Un rôle à repenser pour les collectivités de proximité

Les prochaines élections municipales constituent un moment stratégique pour mettre la santé territoriale au cœur du débat, car la commune agit déjà sur de nombreux déterminants (urbanisme, mobilités, pollution, logement, nature, sport, alimentation) et est interpellée régulièrement sur l’organisation en proximité de notre système de santé. Les candidats cherchent des projets concrets et visibles, et ces sujets de santé parlent directement au quotidien des habitants.

L’enjeu est de présenter la santé comme une politique de qualité de vie, pas seulement comme une question médicale. Il est temps d’interpeller les échelons central et régional sur le nécessaire cadrage des politiques de santé et sur la garantie d’une équité des dispositifs sur l’ensemble du territoire.

Dans le même temps, il est indispensable de proposer un plan municipal de santé, de garantir la présence d’un élu référent, et de mettre en place des dispositifs de concertation (à l’instar du contrat local de santé). De telles initiatives permettront de structurer des actions locales crédibles et de fédérer largement.

Pour conclure, soulignons que la montée en responsabilité des collectivités de proximité en matière de santé ne saurait se substituer à une politique nationale structurante. Une territorialisation efficace se doit d’être lucide et suppose un cadre institutionnel clair, des moyens pérennes, une évaluation robuste et une reconnaissance explicite des arbitrages politiques. À défaut, l’ambition territoriale ne fera que fragiliser l’action publique au lieu de la renforcer.


Pour aller plus loin :

– Le site de l’association Élus Santé Publique et Territoires (ESPT), dont l’objet est la promotion et la reconnaissance du rôle des villes et des élus locaux en santé.

The Conversation

Laurent Chambaud est membre de Place Publique

ref. La santé, un enjeu incontournable des prochaines élections municipales – https://theconversation.com/la-sante-un-enjeu-incontournable-des-prochaines-elections-municipales-275294

Quelle taxe foncière pour les prochains élus municipaux ?

Source: The Conversation – France in French (3) – By Thomas Eisinger, Professeur associé en droit, gestion financière et management des collectivités, Aix-Marseille Université (AMU)

Le mode de calcul de la taxe foncière sur les propriétés bâties est le résultat de l’estimation de la valeur de votre bien immobilier par un taux d’imposition. Hjbc/Shutterstock

En vue des élections municipales, de nombreux candidates et candidats proposent de créer de nouveaux services pour leurs électeurs. Une solution évidente pour financer ces nouvelles dépenses : la taxe foncière sur les propriétés bâties, pourtant déjà en hausse de 19 % entre 2020 et 2024. Décryptage de cette taxe locale incontournable.


Cet article est une version mise à jour et enrichie d’un article publié le 13 septembre 2023 : « Hausse de la taxe foncière : vers l’infini et au-delà ? »

La campagne pour les élections municipales des 15 et 22 mars prochain bat son plein. Une chose est sûre, quel que soit le résultat des urnes, il va falloir trouver de l’argent. Les candidats de tous bords ne manquent pas d’idées qui, quels que soient leurs mérites sociaux ou économiques (c’est un autre débat), ont pour dénominateur commun de mettre sous pression les fragiles équilibres budgétaires communaux.

La gratuité de certains services publics est une proposition à la mode, que ce soit pour les transports ou pour l’école primaire – kits de rentrée, cantine scolaire. Des augmentations d’effectifs sont annoncées, de préférence pour des agents bien visibles sur le terrain comme les policiers municipaux. Il faudra bien trouver des ressources pour financer toutes ces mesures. Le volontaire tout trouvé, comme sur la précédente mandature, ce serait la taxe foncière sur les propriétés bâties, première recette fiscale de nos communes.

Mais pourra-t-elle, sur les six prochaines années, être aussi sollicitée que sur les six dernières ? Divulgachie : a priori non.

Comment est déterminée votre taxe foncière

Attention, nous ne parlerons ici que de votre seule taxe foncière sur les propriétés bâties, qui ne représente, aussi contre-intuitif que cela puisse paraître, qu’une partie de la somme à payer figurant sur la première page de votre avis d’imposition. D’autres prélèvements sont effectués avec la taxe foncière sur les propriétés bâties : la taxe d’enlèvement des ordures ménagères (à l’objet éponyme), la taxe dite GEMAPI (visant à financer la gestion des milieux aquatiques et la prévention des inondations), certaines taxes spéciales d’équipement, etc.

Concernant votre taxe foncière sur les propriétés bâties, son mode de calcul est assez simple : elle est le résultat du produit d’une assiette, en l’espèce l’estimation de la valeur de votre bien immobilier, par un taux d’imposition. La responsabilité de l’évolution annuelle de ces deux composantes est partagée.

La valeur locative cadastrale – l’estimation évoquée plus haut dans son appellation administrative – fluctue chaque année en fonction d’un indice de révision. Jusqu’à récemment (on y reviendra), ce dernier était voté par les parlementaires dans le cadre de la loi de finances. Le taux lui relève, depuis le début des années 1980, des collectivités locales récipiendaires de l’impôt (aujourd’hui, les communes et les intercommunalités), qui le votent chaque année en parallèle de l’adoption de leur budget primitif.

Hausse incontrôlée de l’assiette, à l’insu de notre plein gré

En 2025, l’indexation générale des bases de votre taxe foncière a augmenté de 1,7 %. En 2026, ce devrait être de 0,8 %. Une séquence de relative modération, qui fait suite une augmentation beaucoup plus significative – 3,4 % en 2022 et 7,1 % en 2023. Pour mémoire, la hausse annuelle était en moyenne de 1,6 % entre 2005 et 2015. La mandature 2020-2026 aura ainsi été marquée par une forte hausse de l’assiette de cet impôt.

Comment expliquer une telle augmentation, alors que l’on pourrait imaginer les députés et sénateurs soucieux de préserver le pouvoir d’achat de nos concitoyens ? Depuis le début des années 1980, ce sont bien les parlementaires qui déterminaient l’indexation annuelle de cette assiette. Officiellement, ils tenaient « compte de la variation des loyers ». En réalité, ils étaient toujours attentifs au contexte économique et social.

Dans le cadre de la loi de finances pour 2017, dans une démarche positiviste qui collait bien à l’esprit (initial) de la législature, ces mêmes parlementaires ont fait le choix d’automatiser et donc de dépolitiser cette hausse. Elle se fera désormais sur la base de l’indice des prix à la consommation. S’il était impossible à l’époque d’anticiper le retour de l’inflation que nous avons connu par la mandature 2020-2026, on peut reconnaître que les parlementaires ont été bien malheureux de renoncer à l’époque à cette prérogative (discutable certes) qui était historiquement la leur.

Entre 2020 et 2024, une hausse déjà significative du taux voté par certaines communes

On pourrait légitimement se dire que, si l’assiette augmente au niveau de l’inflation comme nous venons de le voir, le taux de la taxe foncière aurait pu justement lui rester stable. Il n’en a rien été, pour plusieurs raisons.

D’une part, parce que les autres recettes de fonctionnement des communes et de leurs intercommunalités augmentent elles bien moins vite que l’inflation. Les dotations versées par l’État, qui rappelons-le augmentaient il y a encore une quinzaine d’années du niveau de l’inflation et d’une partie de la croissance, se stabilisent après avoir connu quelques années de baisse (contribution du secteur local à la maîtrise des finances publiques).

D’autre part, parce que la taxe d’habitation a disparu, comme une décennie avant elle la taxe professionnelle. Bien qu’elle ait été compensée à l’euro près dans les budgets locaux, aucun nouveau levier fiscal n’est venu combler le vide qu’elle laissait. Résultat, quand il s’agit d’augmenter les ressources budgétaires, les exécutifs locaux ne peuvent plus mettre en œuvre de réelle stratégie fiscale (quelle catégorie de contribuables solliciter davantage cette année ?) et n’ont presque plus qu’une seule option : augmenter la taxe foncière.

Et ce ne sont là que les principales explications. Restaurer les équilibres budgétaires après quelques années de « quoi qu’il en coûte » à la sauce locale, absorber les hausses budgétaires imposées par l’État comme la hausse de la rémunération des fonctionnaires, trouver les moyens de contribuer à la transition écologique… Autant de raisons, plus ou moins légitimes, que les élus locaux ont mobilisées pour justifier la hausse des taux qu’ils ont décidé.

Certes, lorsque l’on regarde les chiffres globaux, la mandature qui s’achève ne se caractérise pas par une hausse générale et massive des taux de taxe foncière (+7 % “seulement” entre 2020 et 2024). Mais certaines des plus grandes villes de France ont effectivement fait le choix d’utiliser ce levier fiscal dans des proportions inédites et largement relayées à l’époque par le presse quotidienne régionale et nationale. Autant de marges de manoeuvre qu’il sera, sur les territoires concernés, inenvisageagbles de remobiliser après 2026.

Un levier fiscal injuste… donc en théorie moins légitime à mobiliser ?

Au-delà de l’explosion constatée sur la mandature qui s’achève de l’assiette indexée et des taux votés, la taxe foncière sur les propriétés bâties porte en elle, dans la configuration actuelle, plusieurs problématiques significatives de justice fiscale.

Un, la valeur de votre habitation n’est structurellement pas le meilleur moyen d’appréhender votre capacité contributive, vos « facultés » sur la base desquelles les impôts sont sensés être levés. S’il n’est pas illégitime d’avoir une assiette autre que les revenus pour certains impôts, cela devient plus problématique lorsque cette assiette concerne un prélèvement significatif en termes de volume. C’est le cas pour la taxe foncière aujourd’hui pour bon nombre de ménages. Selon l’Insee, la taxe foncière représente plus de 4 % du revenu disponible pour les 20 % des propriétaires aux revenus les plus modestes.

Deux, l’appréciation par l’administration de la valeur de votre habitation n’est même pas bonne. Calculée au début des années 1970, elle est aujourd’hui largement déconnectée de la réalité du marché immobilier. Malheureusement, et c’est un des paradoxes informels de la légistique fiscale, plus une situation est injuste et plus il est difficile d’y remédier. La séquence de l’automne dernier peut laisser songeur quant à notre capacité collective à réaliser un jour cet exercice de réforme.

Trois, avec la suppression de la taxe d’habitation, l’augmentation de la pression fiscale, désormais concentrée sur la taxe foncière sur les propriétés bâties, soulève une véritable question de démocratie locale. En effet, une partie des financeurs de la dynamique budgétaire communale sont les propriétaires non-résidents (non-électeurs, serait-on tentés de souligner), alors que dans le même temps les locataires (électeurs) sont eux dispensés de presque tout effort fiscal. Taxation without representation + representation without taxation : tout cela ne semble pas tenable sur le temps long.

Au regard de la double dynamique inédite de l’assiette et des taux constatés sur la mandature 2020-2026 et de ces questionnements afférents à la justice fiscale (un sujet désormais majeur dans le débat public), la modération fiscale devrait en théorie être de rigueur en 2026-2022. Elle aurait même pu être une proposition de campagne majeure. Cependant, il est peu probable que la facture ne s’alourdisse pas dans les prochaines années, au regard des ambitions affichées par les candidats de tout bord. Reste à voir ce qu’en seront les répercussions, sur les finances publiques comme (et c’est peut-être plus problématique) sur la démocratie locale.

The Conversation

Thomas Eisinger est administrateur de l’AFIGESE (association des financiers, contrôleurs de gestion et évaluateurs du secteur public local)

ref. Quelle taxe foncière pour les prochains élus municipaux ? – https://theconversation.com/quelle-taxe-fonciere-pour-les-prochains-elus-municipaux-273623

En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses

Source: The Conversation – France in French (2) – By Raffaele F Ciriello, Senior Lecturer in Business Information Systems, University of Sydney

OpenAI affirme que des règles strictes encadreront l’intégration publicitaire mais l’histoire incite à la prudence en la matière. OpenAI, The Conversation

La question dépasse la technique. En ouvrant ChatGPT aux annonceurs, OpenAI pose un choix politique : l’IA doit-elle servir le public ou devenir un outil redoutable dans les mains des publicitaires ?


OpenAI a annoncé son intention d’introduire de la publicité dans ChatGPT aux États-Unis. Les annonces apparaîtront dans la version gratuite et pour les abonnés à l’offre Go (la moins chère), mais pas pour les abonnés Pro, Business ou Entreprise.

L’entreprise affirme que les publicités seront clairement séparées des réponses du chatbot et qu’elles n’influenceront pas les contenus générés. Elle s’est également engagée à ne pas vendre les conversations des utilisateurs, à permettre la désactivation des publicités personnalisées et à éviter toute publicité destinée aux moins de 18 ans ou portant sur des sujets sensibles tels que la santé et la politique.

Malgré ces engagements, la décision a suscité des inquiétudes chez une partie des utilisateurs. La question centrale est de savoir si ces garanties tiendront une fois que la publicité deviendra un pilier de son modèle économique.

Pourquoi la publicité dans l’IA était presque inévitable

Nous avons déjà vu ce scénario. Il y a quinze ans, les plateformes de réseaux sociaux peinaient à transformer leurs audiences massives en profits.

Le tournant est venu avec la publicité ciblée : adapter les annonces à ce que les utilisateurs recherchent, consultent et regardent. Ce modèle est devenu la principale source de revenus de Google et de Facebook, au point de remodeler leurs services pour maximiser l’engagement des utilisateurs.

Les plateformes d’intelligence artificielle (IA) grand-public sont extrêmement coûteuses pour leurs propriétaires. L’entraînement et le fonctionnement de modèles avancés exigent d’immenses centres de données, des puces spécialisées et un travail d’ingénierie continu. Malgré une croissance rapide du nombre d’utilisateurs, de nombreuses entreprises d’IA continuent d’opérer à perte. OpenAI prévoit à elle seule de « brûler » près de 100 milliards d’euros au cours des cinq prochaines années.

Seules quelques entreprises peuvent absorber de tels coûts. Pour la plupart des fournisseurs d’IA, trouver un modèle économique à grande échelle est urgent, et la publicité ciblée apparaît comme la réponse la plus évidente. Elle reste le moyen le plus fiable de rentabiliser de larges audiences.

Ce que l’histoire nous enseigne

OpenAI affirme qu’elle maintiendra une séparation claire entre les publicités et les réponses, et qu’elle protégera la vie privée des utilisateurs. Ces garanties peuvent sembler rassurantes, mais elles reposent pour l’instant sur des engagements vagues et susceptibles d’être réinterprétés.

L’entreprise indique ainsi qu’elle ne diffusera pas de publicités « à côté de sujets sensibles ou réglementés comme la santé, la santé mentale ou la politique », mais apporte peu de précisions sur ce qui est considéré comme « sensible », sur l’étendue de la notion de « santé » ou sur l’instance chargée de fixer ces limites.

La plupart des échanges avec une IA, dans la vie réelle, ne relèveront pas de ces catégories restreintes. À ce jour, OpenAI n’a donné aucune précision sur les types de publicités qui seront autorisés ou exclus. Si aucun garde-fou n’est posé sur le contenu des annonces, on peut aisément imaginer qu’un internaute demandant « comment décompresser après une journée stressante » se voie proposer des publicités pour la livraison d’alcool. Une requête sur des « idées de week-end sympa » pourrait faire surgir des promotions pour des sites de jeux d’argent.

Pourtant, ces produits sont associés à des effets néfastes reconnus sur la santé et la société. Placées à côté d’un conseil personnalisé, au moment précis où une décision se prend, ces publicités peuvent infléchir les comportements de façon discrète mais efficace, même en l’absence de toute question de santé explicitement formulée.

On avait vu fleurir des promesses comparables aux débuts des réseaux sociaux. Mais l’expérience montre que l’autorégulation s’érode face aux impératifs commerciaux, au profit des entreprises et au détriment des utilisateurs.

Les logiques publicitaires ont souvent mis à mal l’intérêt général. Le scandale Cambridge Analytica a révélé des données personnelles collectées à des fins commerciales pouvaient être réutilisées pour peser sur des scrutins. Les « Facebook Files » ont, eux, révélé que Meta était consciente des effets délétères de ses plateformes, notamment sur la santé mentale des adolescentes et adolescents, mais a tardé à engager des réformes susceptibles d’entamer ses revenus publicitaires.

Plus récemment, des investigations ont montré que Meta continue de tirer profit de publicités frauduleuses, malgré les alertes répétées sur leurs conséquences.

Pourquoi les chatbots changent la donne

Les chatbots ne sont pas un simple fil d’actualité de plus. Les utilisateurs s’en servent de manière intime et personnelle, pour demander des conseils, chercher un soutien émotionnel ou réfléchir en privé. Ces échanges sont perçus comme discrets, sans jugement, et incitent souvent à confier des choses que l’on ne dirait pas en public.

Cette relation de confiance renforce le pouvoir de persuasion, d’une manière que les réseaux sociaux ne permettent pas. On consulte un chatbot pour obtenir de l’aide ou prendre une décision. Même si les publicités sont formellement séparées des réponses, elles s’insèrent dans un espace privé et conversationnel, et non dans un flux public.

Cette relation de confiance décuple le pouvoir de persuasion, bien au-delà de ce que permettent les réseaux sociaux. On se tourne vers un chatbot pour demander conseil, trancher une décision, chercher un appui. Même officiellement dissociées des réponses, les publicités s’invitent alors dans un tête-à-tête numérique, au cœur d’un échange privé, et non dans le brouhaha d’un fil public.

Des messages placés aux côtés de recommandations personnalisées — qu’ils concernent des biens de consommation, des loisirs, les finances ou la politique — ont toutes les chances d’exercer une influence bien plus forte que les mêmes publicités aperçues au détour d’une navigation classique.

Alors qu’OpenAI présente ChatGPT comme un « super assistant » capable d’accompagner ses utilisateurs dans tous les domaines, des finances à la santé, la frontière entre conseil et incitation devient de plus en plus floue.

Pour les escrocs comme pour les régimes autoritaires, disposer d’un outil de propagande encore plus efficace serait particulièrement tentant. Et du côté des acteurs de l’IA, la perspective de revenus supplémentaires rendra toute complaisance d’autant plus difficile à écarter

Le problème de fond tient à un conflit d’intérêts structurel. Les modèles publicitaires récompensent les plateformes qui maximisent l’engagement, alors même que les contenus les plus susceptibles de capter durablement l’attention sont souvent trompeurs, émotionnellement chargés ou préjudiciables à la santé.

C’est pour cette raison que l’autorégulation des plateformes en ligne a, à maintes reprises, montré ses limites.

Existe-t-il une meilleure voie ?

Une piste serait de considérer l’IA comme une infrastructure publique numérique : des systèmes essentiels, conçus pour servir l’intérêt général plutôt que pour maximiser les recettes publicitaires.

Cela n’implique pas d’exclure les acteurs privés. Mais cela suppose l’existence d’au moins une option publique de haute qualité, placée sous contrôle démocratique — à l’image des médias audiovisuels publics qui coexistent avec les chaînes commerciales.

Des exemples émergent déjà. La Suisse a développé le système d’IA public Apertus via ses universités et son centre national de calcul intensif. Ce modèle est open source, conforme au droit européen sur l’IA et exempt de publicité.

L’Australie (NDT : la version originale de ce texte a été écrite pour un public australien) pourrait aller plus loin. En parallèle du développement de ses propres outils d’IA, les autorités pourraient imposer des règles claires aux acteurs commerciaux : obligation de transparence, interdiction des publicités nuisibles à la santé ou à caractère politique, et sanctions effectives — pouvant aller jusqu’à la suspension d’activité — en cas d’infractions graves.

La publicité n’a pas dévoyé les réseaux sociaux en un jour. Elle a progressivement déplacé les incitations, jusqu’à faire des atteintes à l’intérêt général un simple effet secondaire de la quête de rentabilité. L’introduire dans l’IA conversationnelle, c’est risquer de reproduire ce scénario — mais dans des systèmes auxquels les utilisateurs accordent une confiance bien plus profonde encore.

La question décisive n’est donc pas d’ordre technique, mais politique : l’IA doit-elle servir le public, ou les annonceurs et les investisseurs ?

The Conversation

Raffaele F Ciriello est membre bénévole et temporaire du groupe consultatif des parents auprès de l’eSafety Commissioner, où il conseille sur les réactions des parents et des jeunes face aux lois australiennes fixant un âge minimum pour l’usage des réseaux sociaux. Cet article s’appuie sur ses recherches menées à titre indépendant.

Kathryn Backholer est vice-présidente (politique) de la Public Health Association of Australia. Elle reçoit des financements du National Health and Medical Research Council, de l’Australian Research Council, de l’UNICEF, de la Ian Potter Foundation, de la National Heart Foundation, de VicHealth, de la Foundation for Alcohol Research and Education, de QUIT, de la .auDA Foundation ainsi que du Victorian Department of Justice and Community Safety pour des travaux portant sur les effets nocifs de la publicité en ligne sur la santé.

ref. En ouvrant ChatGPT à la publicité, OpenAI expose l’IA à des dérives dangereuses – https://theconversation.com/en-ouvrant-chatgpt-a-la-publicite-openai-expose-lia-a-des-derives-dangereuses-275748

How a largely forgotten Supreme Court case can help prevent an executive branch takeover of federal elections

Source: The Conversation – USA – By Derek T. Muller, Professor of Law, University of Notre Dame

Georgia General Election 2020 ballots are loaded by the FBI onto trucks at the Fulton County Election hub on Jan. 28, 2026, in Union City, Ga. AP Photo/Mike Stewart

The recent FBI search of the Fulton County, Georgia, elections facility and the seizure of election-related materials pursuant to a warrant has attracted concern for what it might mean for future elections.

What if a determined executive branch used federal law enforcement to seize election materials to sow distrust in the results of the 2026 midterm congressional elections?

Courts and states should be wary when an investigation risks commandeering the evidence needed to ascertain election results. That is where a largely forgotten Supreme Court case from the 1970s matters, a case about an Indiana recount that sets important guardrails to prevent post-election chaos in federal elections.

A clipping from a Nov. 4, 1970 newspaper with the headline 'Hartke in close battle for Senate.'
The day after Election Day in 1970, votes were very close in the Indiana election for U.S. Senate. A challenge to the outcome would lead to an important U.S. Supreme Court case.
The Purdue Exponent, Nov. 4, 1970

Congress’s constitutionally-delegated role

The case known as Roudebush v. Hartke arose from a razor-thin U.S. Senate race in Indiana in 1970. The ballots were cast on Election Day, and the state counted and verified the results, a process known as the “canvass.” The state certified R. Vance Hartke as the winner. Typically, the certified winner presents himself to Congress, which accepts his certificate of election and seats the member to Congress.

The losing candidate, Richard L. Roudebush, invoked Indiana’s recount procedures. Hartke then sued to stop the recount. He argued that a state recount would intrude on the power of each chamber, the Senate or the House of Representatives, to judge its own elections under Article I, Section 5 of the U.S. Constitution. That clause gives each chamber the sole right to judge elections. No one else can interfere with that power.

Hartke worried that a recount might result in ballots that could be altered or destroyed, which would diminish the ability of the Senate to engage in a meaningful examination of the ballots if an election contest arose.

But the Supreme Court rejected that argument.

It held that a state recount does not “usurp” the Senate’s authority because the Senate remains free to make the ultimate judgment of who won the election. The recount can be understood as producing new information – in this case, an additional set of tabulated results – without stripping the Senate of its final say.

Furthermore, there was no evidence that a recount board would be “less honest or conscientious in the performance of its duties” than the original precinct boards that tabulated the election results the first time around, the court said.

A state recount, then, is perfectly acceptable, as long as it does not impair the power of Congress.

In the Roudebush decision, the court recognized that states run the mechanics of congressional elections as part of their power under Article I, Section 4 of the U.S. Constitution to set the “Times, Places and Manner of holding Elections for Senators and Representatives,” subject to Congress’s own regulation.

At the same time, each chamber of Congress judges its own elections, and courts and states should not casually interfere with that core constitutional function. They cannot engage in behaviors that usurp Congress’s constitutionally-delegated role in elections.

The U.S. Capitol dome in a photo at night with a dark blue sky behind it.
Each chamber of Congress judges its own elections, with no interference by courts and states with that core constitutional function.
David Shvartsman, Moment/Getty Images

Evidence can be power

The Fulton County episode is legally and politically fraught not because federal agents executed a warrant – courts authorize warrants all the time – but because of what was seized: ballots, voting machines, tabulation equipment and related records.

Those items are not just evidence. They are also the raw materials for the canvassing of votes and certification of winners. They provide the foundation for audits and recounts. And, importantly, they are necessary for any later inquiry by Congress if a House or Senate race becomes contested.

That overlap creates a structural problem: If a federal investigation seizes, damages, or destroys election materials, it can affect who has the power to assess the election. It can also inject uncertainty into the chain of custody: Because ballots are removed from absentee envelopes or transferred from Election Day precincts to county election storage facilities, states ensure the ballots cast on Election Day are the only ones tabulated, and that ballots are not lost or destroyed in the process.

Disrupting this chain of custody by seizing ballots, however, can increase, rather than decrease, doubts about the reliability of election results.

That is the modern version of “usurpation.”

From my perspective as an election law scholar, Roudebush is a reminder that courts should be skeptical of executive actions that shift decisive control over election proof away from the institutions the Constitution expects to do the judging.

Congress doesn’t just adjudicate contests

A screenshot of a news story with a headline that says 'Congressional election observers deploy to Iowa for recount in uncalled House race.'
Congressional election observers were sent to Iowa in 2024 to monitor a recount.
Fox News

There is another institutional reason courts should be cautious about federal actions that seize or compromise election materials: The House already has a long-running capacity to observe state election administration in close congressional races.

The Committee on House Administration maintains an Election Observer Program. That program deploys credentialed House staff to be on-site at local election facilities in “close or difficult” House elections. That staff observes casting, processing, tabulating and canvassing procedures.

The program exists for a straightforward reason: If the House may be called upon to judge a contested election under Article I, Section 5, it has an institutional interest in understanding how the election was administered and how records were handled.

That observation function is not hypothetical. The committee has publicly announced deployments of congressional observers to watch recount processes in tight House races throughout the country.

I saw it take place first-hand in 2020. The House deployed election observers in Iowa’s 2nd Congressional District to oversee a recount of a congressional election that was ultimately certified by a margin of just six votes.

Democratic and Republican observers from the House politely observed, asked questions, and kept records – but never interfered with the state election apparatus or attempted to lay hands on election equipment or ballots.

Congress has not rejected a state’s election results since 1984, and for good reason. States now have meticulous recordkeeping, robust chain-of-custody procedures for ballots, and multiple avenues of verifying the accuracy of results. And with Congress watching, state results are even more trustworthy.

When federal investigations collide with election materials

Evidence seizures can adversely affect election administration. So courts and states ought to be vigilant, enforcing guardrails that help respect institutional boundaries.

To start, any executive branch effort to unilaterally inject itself into a state election apparatus should face meaningful scrutiny. Unlike the Fulton County warrant, which targeted an election nearly six years old, warrants that interrupt ongoing state processes in an election threaten to usurp the constitutional role of Congress. And executive action cannot proceed if it impinges upon the ultimate ability of Congress to judge the election of its members.

In the exceedingly unlikely event that a court issues a warrant, a court should not permit seizure of election equipment and ballots during a state’s ordinary post-election canvass. Instead, inspection of items, provision of copies of election materials, or orders to preserve evidence are more tailored means to accomplish the same objectives. And courts should establish clear chain-of-custody procedures in the event that evidence must be preserved for a future seizure in a federal investigation.

The fear driving much public commentary about the danger to midterm elections is not merely that election officials will be investigated or that evidence would be seized. It is that investigations could be used as a pretense to manage or, worse, disrupt elections – chilling administrators, disorganizing record keeping or manufacturing doubt by disrupting custody of ballots and systems.

Roudebush provides a constitutional posture that courts should adopt, a recognition that some acts can usurp the power of Congress to judge elections. That will provide a meaningful constraint on the executive ahead of the 2026 election and reduce the risk of intervention in an ongoing election.

The Conversation

Derek T. Muller does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How a largely forgotten Supreme Court case can help prevent an executive branch takeover of federal elections – https://theconversation.com/how-a-largely-forgotten-supreme-court-case-can-help-prevent-an-executive-branch-takeover-of-federal-elections-275603

Pregnancy and pre-eclampsia: is aspirin the answer for everyone?

Source: The Conversation – UK – By Patricia Maguire, Professor, School of Biomolecular and Biomedical Science, University College Dublin

Irin Fierce/Shutterstock.com

A new study has ignited the debate over whether every pregnant woman should take low-dose aspirin.

For years, it has been recommended for women at high risk of pre-eclampsia. This dangerous condition can cause high blood pressure and organ damage. The argument for giving it to all pregnant women is straightforward: current screening isn’t perfect, and pre-eclampsia can be hard to predict.

Aspirin is cheap, widely available and generally safe, which makes it tempting to give it to everyone. But medicine rarely works well as a one-size-fits-all solution. The reality is that we still lack tools to identify early in pregnancy when placentas might struggle to support a baby.

Aspirin works by making platelets, the tiny blood cells that form clots, less likely to stick together. In pre-eclampsia, the placenta can trigger inflammation and overactive platelets, reducing blood flow to the baby. By reducing the stickiness of platelets, aspirin helps maintain healthy blood flow between the mother and the baby.

A pregnant woman on a bed.
Aspirin helps maintain healthy blood flow between mother and baby.
New Africa/Shutterstock.com

If aspirin is so effective, why not give it to everyone? In heart medicine, healthy older adults were once routinely advised to take daily low-dose aspirin, but several studies have showed that long-term bleeding risks outweigh the benefits and guidance has recently changed. Pregnancy is a much shorter window with treatment lasting only a few months, so the risk of serious bleeding in an otherwise healthy young woman is very low, and the consequences of pre-eclampsia can be severe.

Even so, aspirin doesn’t work the same way for everyone. Standard doses may be too low for women with a higher body mass index or increased blood volume. Absorption can be unpredictable, especially with enteric-coated tablets (which protect the stomach lining) or changes in digestion during pregnancy. And if tablets aren’t taken consistently, the drug can’t do its job.

Right now, doctors decide who should take aspirin mostly based on a woman’s medical history and known risk factors. This simple approach works, but it can miss some women who go on to develop pre-eclampsia, while others are treated just to be safe.

More advanced testing – combining a woman’s medical history with blood pressure checks, blood tests that show how well the placenta is working, and ultrasound scans – can spot more cases. The downside is that these tests need specialist training, extra equipment, and more time, which aren’t always available in everyday care.

The future: better biomarkers

My research looks at platelets and the tiny particles they release, called extracellular vesicles. These microscopic signals reflect how the placenta and maternal environment are interacting, and could identify problems months before symptoms appear. One day, such tests could guide personalised treatment, helping doctors know who really needs aspirin and who may not.

For now, if your doctor has prescribed aspirin in pregnancy, it’s important to continue taking it. It is a safe, effective and evidence-based treatment for women at higher risk of pre-eclampsia. But as science progresses, there’s real potential to move from broad guidelines to personalised care, giving every mother and baby the best chance of a healthy pregnancy.

This article was commissioned in conjunction with Prototypes for Humanity, a global initiative that showcases and accelerates academic innovation to solve social and environmental challenges. The Conversation is the media partner of Prototypes for Humanity 2025.

The Conversation

This article was commissioned in conjunction with Prototypes for Humanity, a global initiative that showcases and accelerates academic innovation to solve social and environmental challenges. The Conversation is the media partner of Prototypes for Humanity 2025. Patricia Maguire works for University College Dublin, Ireland, researching platelets and their role in pre-eclampsia. She receives funding from Enterprise Ireland and Research Ireland.

ref. Pregnancy and pre-eclampsia: is aspirin the answer for everyone? – https://theconversation.com/pregnancy-and-pre-eclampsia-is-aspirin-the-answer-for-everyone-275897

Bangladesh Nationalist party secures victory in first election since Sheikh Hasina’s ousting

Source: The Conversation – UK – By Shahzad Uddin, Director, Centre for Accountability and Global Development, University of Essex

The Bangladesh Nationalist party (BNP) has won a landslide majority in the country’s first election since an uprising ended the 15-year rule of Sheikh Hasina in 2024. Results from the election commission confirmed that the BNP alliance had secured 220 seats in the 350-member parliament. The Islamist party Jamaat-e-Islami, which was banned by Hasina’s government, came second with 77 seats.

Tarique Rahman, the BNP leader who has spent 17 years living in self-exile in London, is set to assume leadership of the government. Rahman is the son of the former Bangladeshi president and BNP leader, Ziaur Rahman, and his wife Khaleda Zia, who previously served two terms as the country’s prime minister.

In its manifesto, the BNP pledged to build what it calls a “welfare-oriented and prosperous” nation. Commitments include expanded financial assistance for low-income families, strengthening the healthcare workforce, reforming education and boosting climate resilience.

Yet the party’s record is mixed. The BNP boycotted previous elections, including one in 2024, arguing they were neither free nor fair. And during earlier periods in office, the party faced criticism over corruption and governance standards. Regardless, the February 12 vote marks a political reset following one of the most turbulent periods in Bangladesh’s recent history.

The uprising in 2024 began with student protests demanding reforms to the government’s job quota system. But these protests quickly expanded into a broader movement challenging the concentration of executive power in the country. Reports from organisations such as Human Rights Watch during Hasina’s rule raised concerns about media restrictions, opposition arrests and alleged enforced disappearances.

Bangladesh’s security forces responded to the unrest violently, killing as many as 1,400 protesters in a crackdown that Hasina’s critics accuse her of ordering directly – an allegation she denies. The protests continued to swell and Hasina was forced to flee the country, entering exile in India.

An interim administration led by Nobel peace prize laureate Muhammad Yunus was formed to oversee efforts to stabilise state institutions and organise the election. The election, which also saw citizens vote on constitutional reforms aimed at preventing politicians from wielding excessive executive power again, was widely seen as a return to constitutional governance after months of provisional rule.

Banned from contesting

A defining feature of the election was that the interim administration banned Hasina’s party, the Awami League, from contesting. For decades, Bangladeshi politics has centred around rivalry between the Awami League and the BNP. So, removing the Awami League from the ballot fundamentally altered the competitive landscape.

With its principal rival excluded, the BNP became the only party with organisational capacity extensive enough to form a government. Smaller parties lacked comparable reach across constituencies, a structural absence that seems to have encouraged consolidation behind the BNP.

Voter turnout also appears to have been lower than many had anticipated for such a consequential election, with unofficial figures putting participation at 61%. In previous Bangladeshi national elections where all major political parties have participated fully, turnout has typically ranged from 75% to 80%.

Competitive democracy depends on there being a viable opposition. And excluding a major political party from contesting has complicated the interim administration’s claims of full democratic normalisation. Whether the Awami League’s absence is temporary or prolonged will shape Bangladesh’s future political stability.

The referendum on constitutional reforms, which supporters argue are necessary to prevent a return to the centralised authority seen under Hasina, passed comfortably. Eight out of ten voters backed the reforms. However, critics question whether constitutional change in the absence of the largest former governing party can fully reflect broad national consensus.

Regional recalibration

India will have watched Bangladesh’s election closely. In recent years, ties between the two countries have sunk to one of their lowest points in decades. India is widely perceived in Bangladesh as having enabled democratic backsliding by supporting Hasina during her years in power.

That perception led to widespread anti-Indian sentiment during the 2024 protests. And reports since then of military standoffs along the border, disputes over water-sharing agreements and concerns over trade imbalances have only added to public frustration. How the new government manages its relationship with India will shape regional stability and Bangladesh’s economic trajectory.

In its manifesto, the BNP steered clear of adopting positions that might unsettle voters or concern regional players such as India. But, at the same time, it has expressed willingness to engage constructively with India on contentious issues such as border killings, insurgent activity and water sharing.

The BNP holds a powerful parliamentary mandate. But the scale of its victory should not be mistaken for unconditional endorsement. Many votes were shaped by the absence of the Awami League and by a desire for reform after a period of violence and uncertainty.

Whether this moment sets in motion a durable democratic recovery for Bangladesh or another cycle of concentrated authority will depend on how power is exercised in the years ahead.

The Conversation

Shahzad Uddin does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Bangladesh Nationalist party secures victory in first election since Sheikh Hasina’s ousting – https://theconversation.com/bangladesh-nationalist-party-secures-victory-in-first-election-since-sheikh-hasinas-ousting-275616

Early Mars was warm and wet not icy, suggests latest research

Source: The Conversation – UK – By Gareth Dorrian, Post Doctoral Research Fellow in Space Science, University of Birmingham

ESA/DLR/FU Berlin (G. Neukum)

A recent study showed that Mars was warm and wet billions of years ago. The finding contrasts with another theory that this era was mainly cold and icy. The result has implications for the idea that life could have developed on the planet at this time.

Whether Mars was once habitable is a fascinating and intensely researched topic of interest over many decades. Mars, like the Earth, is about 4.5 billion years old and its geological history is divided into different epochs of time.

The latest paper relates to Mars during a time called the Noachian epoch, which extended from about 4.1 to 3.7 billion years ago. This was during a stage in solar system history called the Late Heavy Bombardment (LHB). Evidence for truly cataclysmic meteorite impacts during the LHB are found on many bodies throughout the solar system.

Two obvious scars from this era on Mars are the enormous Hellas and Argyre impact basins; both are well over a thousand miles across and each possesses enough volume to hold all the water in the Mediterranean with room to spare.

One might not imagine such a time being conducive to the existence of fragile lifeforms, yet it is likely to be the era in which Mars was most habitable. Evidence of landforms sculpted by water from this time is plentiful and include dried-up river valleys, lake beds, ancient coastlines and river deltas.

The prevailing climatic conditions of the Noachian are still a matter of intense debate. Two alternative scenarios are
typically posited: that this time was cold and icy, with occasional melting of large volumes of frozen water by meteorite impact and volcanic eruptions, or that it was warm, wet and largely ice-free.




Read more:
Signs of ancient life may have been found in Martian rock – new study


Brightening Sun

All stars, including the Sun, brighten with age. In the early solar system, during the Noachian, the Sun was about 30% dimmer than it is today, so less heat was reaching Mars (and all the planets). To sustain a warm, wet climate at this time, the Martian atmosphere would have needed to be very substantial – much thicker than it is today – and abundant in greenhouse gases like CO2.

But when reaching high enough atmospheric pressure, CO2 tends to condense out of the air to form clouds and reduce the greenhouse effect. Given these issues, the cold, icy scenario is perhaps more believable.

One of the main science goals of the Mars 2020 Perseverance Rover, which landed spectacularly in February 2021, is to seek evidence to support either of these two scenarios, and the new
paper
using data from Perseverance may have done just that.

Perseverance landed at the Martian location of Jezero crater, which was selected as the landing site because it once contained a lake. Views of the crater from orbit show several distinct fan-shaped deposits emanating from channels carved through the crater walls by flowing water. Within these channels are abundant deposits of clay minerals.

The new paper details recent analysis of aluminium-rich clay pebbles, called kaolinite, located within one of the ancient flow channels. The pebbles appear to have been subjected to intense weathering and chemical alteration by water during the Noachian.

While this is perhaps not surprising for a known ancient watery environment, what is interesting is that these clays are strongly depleted in iron and magnesium, and enriched in titanium and aluminium.




Read more:
Are we the Martians? The intriguing idea that life on Earth began on the red planet


This is important because it means these rocks were less likely to have been altered in a hydrothermal environment, where scalding hot water was temporarily released by melting ice caused by volcanism or a meteorite impact.

Instead, they appear to have been altered under modest temperatures and persistent heavy rainfall. The authors found distinct similarities between the chemical composition of these clay pebbles with similar clays found on Earth dating from periods in our planet’s history when the climate was much warmer and wetter.

False colour image of the dried up river delta in Jezero crater, which Perseverance is currently exploring.
Nasa

The paper concludes that these kaolinite pebbles were altered under high rainfall conditions comparable to “past greenhouse climates on Earth” and that they “likely represent some of the wettest intervals and possibly most habitable portions of Mars’ history”.

Furthermore, the paper concludes that these conditions may have persisted over time periods ranging from thousands to millions of years. Perseverance recently made headlines also for the discovery of possible biosignatures in samples it collected last year, also from within Jezero crater.

These precious samples have now been cached in special sealed containers on the rover for collection by a future Mars sample return mission. Unfortunately, the mission has recently been cancelled by Nasa and so what vital evidence they may or may not contain will probably not be examined in an Earth-based laboratory for many years.

Crucial to this future analysis is the so-called “Knoll criterion” – a concept formulated by astrobiologist Andrew Knoll, which states that for something to be evidence of life, an observation has to not just be explicable by biology; it has to be inexplicable without it. Whether these samples ever satisfy the Knoll criterion will only be known if they can be brought to Earth.

Either way, it is quite striking to imagine a time on Mars, billions of years before the first humans walked the Earth, that a tropical climate with – possibly – a living ecosystem once existed in the now desolate and wind-swept landscape of Jezero crater.

The Conversation

Gareth Dorrian does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Early Mars was warm and wet not icy, suggests latest research – https://theconversation.com/early-mars-was-warm-and-wet-not-icy-suggests-latest-research-275347