Canada risks missing out on Africa’s trade boom under Mark Carney

Source: The Conversation – Canada – By Isaac Odoom, Assistant Professor, Political Science, Carleton University

At the G20 summit in South Africa in November, Prime Minister Mark Carney announced several new initiatives, including talks toward a Foreign Investment Promotion and Protection Agreement (FIPA) with South Africa.

But when asked about prioritizing Africa’s economic opportunities for Canada, Carney said Africa is not among his government’s early priorities because other regions offered “the most immediate return.” That remark was at odds with what many Canadians and African partners have been urging Canadian officials to do: treat Africa as a core partner in Canada’s economic diversification plan, diplomatic and geopolitical future.




Read more:
Why Canada must seize the moment and launch its long-awaited Africa strategy


Shortly after Carney’s remarks, in December, the Senate’s Standing Committee on Foreign Affairs and International Trade released a landmark report entitled Canada–Africa: Seizing a Strategic Opportunity. It urged the federal government to engage Africa now with resources, ambition and a concrete action plan or risk being left behind.

Together, these two developments reveal a central tension shaping Canada’s Africa policy at the moment — and precisely when Africa’s global standing is rising.

Why this matters now

Africa’s demographic and economic trajectory is unmistakable. The continent’s working-age population is expanding faster than any other region, 12 of the world’s 20 fastest-growing economies are in Africa and the African Continental Free Trade Area (AfCFTA), which aims to create one of the world’s largest integrated markets, is already in motion.

This demographic dividend and market potential matter not only to African states, but to countries like Canada seeking new trade diversification partners and growth opportunities.

Against this backdrop, the Senate’s report provides 21 recommendations — including the need for a detailed Africa Strategy action plan with timelines and resources, regular high-level dialogue with the African Union, support for AfCFTA implementation, strengthened trade commissioner services and enhanced diaspora engagement. It urges the government to match its promises with real resources and commitment.

Canada’s Africa Strategy

The government’s March 2025 Canada’s Africa Strategy was widely welcomed as a positive step toward a more coherent foreign policy on Africa. It articulates goals for shared prosperity, security and mutual co-operation, acknowledging Africa’s growing place in the world.

My own earlier analysis on Canadian engagement in Africa highlighted that Canada’s new strategy offered a foundation to rethink how it builds partnerships across the continent — not simply viewing Africa as a development recipient, but as a region of strategic partnership and economic opportunity.

I also noted how Canada could learn from China’s long-term engagement model, particularly its emphasis on sustained relationships, infrastructure and market access, while offering a distinct, values-based alternative.

Delivery is the real test

Canada’s Africa Strategy articulates a necessary vision, but follow-through remains limited. That gap is visible in Canada’s broader policy signals.

Even after the launch of the strategy, Africa remains marginal in Canada’s trade and economic planning. The 2025 federal budget identified priority trade markets in Europe and Asia, but not Africa, despite stated support for the AfCFTA. Such inconsistencies suggest lingering hesitation in committing political capital to Africa.

Diplomatic choices reinforce this impression. Limiting Carney’s G20 trip to South Africa alone missed an opportunity to signal a continentwide vision.

A short stop in another regional hub would have underscored Canada’s recognition of Africa’s diversity and strategic importance. Instead, the narrow itinerary conveyed a constrained reading of Africa’s geopolitical and economic landscape. African governments notice these signals, especially at a time when they are actively diversifying external partnerships.

None of this means Canada lacks opportunities. The nuclear co-operation agreement with South Africa signed at the G20 has real potential. A future FIPA could offer greater certainty for Canadian investors in South Africa. And although tentative, the reference to AfCFTA engagement at the G20 is significant.

But for these opportunities to lead to real outcomes, Canada needs a more deliberate and sustained approach backed by resources and political commitment.

Africa’s expanding consumer market

Why does this matter for Canadians? Africa has a young and fast-growing population, a burgeoning middle class and an expanding consumer market. Canadian firms, from clean technology and education to agribusiness and services, can benefit if supported at the right time with the right tools.

Diplomatic influence from a continent of 54 countries also flows from consistency and commitment; not intermittent engagement.

For the first time, the G20 in South Africa was a reminder that Africa is no longer peripheral to global politics. African markets are diverse, fast-changing and increasingly central to the global economy. This requires Canada to look past short-term returns, acknowledging Africa’s critical role in its economic future and investing resources to that end.

Other countries like China, Turkey, Brazil and Gulf states have already recognized this reality. Every year Canada delays, it risks losing ground that will be hard to reclaim.




Read more:
African nations can do more to benefit from ties with China, the world’s second-strongest economy


Time to act

Despite the strategy’s imperfections, Canada now has a plan for engaging with Africa. But a plan is only as good as its implementation.

The Senate report is timely and calls for committing real resources, expanding diplomatic and trade support structures and elevating Africa in Canada’s foreign policy narrative well beyond occasional summits. It means sustained leadership attention from the prime minister and senior ministers.

If Canada seizes this moment with purpose, resources and political will, it can build genuine partnerships that benefit both Canadians and African partners. The Senate’s report aligns with the view that Africa is not a charity case; it is a strategic frontier for trade, innovation and geopolitical influence. Delivery must be the priority going forward, or Canada will be left behind.

The Conversation

Isaac Odoom does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Canada risks missing out on Africa’s trade boom under Mark Carney – https://theconversation.com/canada-risks-missing-out-on-africas-trade-boom-under-mark-carney-272166

Why Canada needs better data on strikes, unions and other labour issues

Source: The Conversation – Canada – By Larry Savage, Professor, Labour Studies, Brock University

In the summer of 2025, the federal government quietly pulled national strike and lockout data from public view. The move followed a complaint from the Confédération des syndicats nationaux (CSN), the second-largest trade union federation in Québec.

The CSN learned that an employer organization was waging an anti-union campaign using flawed data published by Statistics Canada. The data artificially inflated the number of strikes in the province, leading the Montreal Economic Institute to falsely assert that since 2023, 91 per cent of Canadian work stoppages had affected Québec.

On Dec. 16, the corrected data was restored without comment.

Months of missing data made it difficult for employers, unions and researchers to make sense of trends and emerging patterns in Canadian labour relations. Worse yet, the flawed data helped influence a debate and shape public opinion about labour law reform in Québec.

This episode highlights a persistent problem: Canada does a poor job of gathering vital labour relations information. In a period of rising inequality and renewed union-management conflict, stakeholders need better and more accurate data.

What disappeared and why it matters

For decades, Employment and Social Development Canada (ESDC) and Statistics Canada have published national data on strikes and lockouts. These figures allow journalists, members of the public and other stakeholders to track where conflicts are occurring, how large they are, how long they last and the number of workers involved over time.

Labour relations data is a basic need for the purpose of work-related policy analysis. Without timely and reliable figures, it becomes increasingly difficult to analyze current workplace conflicts, compare them across sectors or provinces or place them in historical context.

Long-term, consistent data sets are especially important because they allow researchers to identify trends: whether work stoppages are becoming more frequent, which industries are most affected and how policy changes may be influencing workplace conflict. When that continuity is broken, so is the ability to understand how the labour relations landscape is changing over time.

While ESDC’s public tables were unavailable, Statistics Canada’s historical tables, on which researchers often rely, were also negatively affected. The government offered no public explanation on its website for why the data were taken down, though ESDC now indicates that revisions were made to recent data covering Québec.

Canada lags behind other countries

Other countries show that better labour relations data collection is possible. In the United States, for example, the National Labor Relations Board consistently releases statistics on union certification applications and unfair labour practice cases, giving the public regular insights into trends in unionization and workplace conflict.

Some Canadian provincial labour boards publish annual reports, but nothing at the federal level matches the depth and timeliness of U.S. labour relations reporting. This leaves Canada with a patchwork of partial figures instead of a coherent national picture of how unions, employers and workers are interacting.

Despite the return of ESDC’s work stoppages data, Canada still lacks crucial information on the broader system of labour relations. There is currently no timely national source for data on new union certifications, membership levels in individual unions, unfair labour practices, strike votes, health and safety work refusals, or duty of fair representation complaints.

Researchers looking for this information must often wait for uneven provincial annual reports or file individual requests with provincial labour boards and Statistics Canada, which can be slow and costly.

In some cases, the data is not collected at all. The result is a system in which some of the most important features of labour relations are effectively hidden from public view by administrative fragmentation.

Models Canada could follow

Canada already has models that show how a national labour relations data system could work. The Ontario Ministry of Labour’s collective bargaining database, for instance, tracks public and private sector negotiations, wage settlements, mediation and arbitration outcomes, and even the contents of recent collective agreements.

The Association of Workers’ Compensation Boards of Canada shows that provincial data can be combined to create a clear national picture. Working with provincial workers’ compensation boards, it produces national statistics on injuries, fatalities and other workplace safety issues.

The ESDC could use this model to build a national labour relations database that would include information on union certification applications and outcomes, membership trends by sector and region, unfair labour practice complaints and work refusals.

Such a resource would help policymakers see what’s happening in Canada’s workplaces, allow unions and employers to compare bargaining results, and help journalists and the public evaluate how well labour laws work. It would also strengthen academic research and support better labour relations policy.

Expanding public access to labour relations data would also send a clear signal that the federal government understands the value of evidence-based policy decisions. In a period when official statistics on wages, jobs and prices are under political pressure in other countries, Canada has an opportunity and a responsibility to strengthen its own commitment to open, reliable labour relations data.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Why Canada needs better data on strikes, unions and other labour issues – https://theconversation.com/why-canada-needs-better-data-on-strikes-unions-and-other-labour-issues-272776

Claves para entender por qué EE. UU. tendría muy complicado hacerse con el control de Groenlandia

Source: The Conversation – (in Spanish) – By Ana Belén López Tárraga, Investigadora en el Grupo de investigación Territorio, Innovación y Desarrollo (TEIDE), Universidad de Salamanca

Bendix M/Shutterstock

En los últimos días, el caso venezolano ha vuelto a colocar en el centro del debate internacional una cuestión fundamental: ¿hasta dónde están dispuestas a llegar las grandes potencias cuando consideran que sus intereses estratégicos están en juego?

Las discusiones sobre soberanía, control de recursos y legitimidad de la intervención han reabierto interrogantes que parecían superados tras el final de la Guerra Fría. En este clima de tensión y de normas cada vez más disputadas, ideas que antes se consideraban inverosímiles comienzan a circular con mayor naturalidad en el discurso político.

Recientemente, y después de atacar algunos enclaves en Venezuela y de detener a Nicolás Maduro, el presidente de Estados Unidos, Donald Trump, ha dejado muy claros sus intereses: “Necesitamos a Groenlandia por motivos de seguridad nacional”. Las alarmas ha saltado.

Es en este contexto donde reaparece una pregunta que, hace solo unos años, habría parecido absurda: ¿podría Estados Unidos intentar hacerse con Groenlandia? La cuestión no surge de la nada. Forma parte de un escenario internacional en el que la competencia por recursos estratégicos y el control de espacios clave vuelven a ocupar un lugar central.

La posibilidad de que Estados Unidos adquiera Groenlandia es muy limitada, ya que existen obstáculos legales claros. Desde 2009, cuenta con un amplio autogobierno dentro del reino de Dinamarca. Cualquier cambio de soberanía requiere el consentimiento de su población, un principio protegido por el derecho internacional.

También existen límites políticos relevantes. Una presión unilateral no solo dañaría la relación con Dinamarca, sino que además afectaría al conjunto de sus aliados. No debemos olvidar que Dinamarca es miembro de la Organización del Tratado del Atlántico Norte (OTAN). Un conflicto interno debilitaría a la alianza en un momento de alta competencia global.

La respuesta europea

Ante este escenario, la Unión Europea ha reaccionado de forma coordinada. Recientemente, varios Estados miembros han firmado un comunicado conjunto de apoyo a Groenlandia y al Reino de Dinamarca en el que subrayan el respeto a la soberanía, al principio de autodeterminación y al orden internacional basado en normas. El texto busca enviar una señal política clara frente a cualquier cuestionamiento externo del estatus de la isla y reafirma el compromiso europeo con la estabilidad del Ártico como espacio de cooperación.

Esta posición común convive, sin embargo, con una realidad estructural difícil de ignorar. La seguridad europea depende en gran medida de Estados Unidos, tanto en capacidades militares como en disuasión estratégica. Muchos Estados miembros carecen de medios suficientes para garantizar su defensa sin el respaldo estadounidense, lo que limita su margen de autonomía política.

Esta dependencia ayuda a explicar el tono prudente de la respuesta europea. La Unión busca respaldar a Groenlandia y a Dinamarca sin abrir una brecha con su principal garante de seguridad. El equilibrio entre principios y realismo estratégico se convierte así en uno de los grandes desafíos actuales.

Un interés que viene de lejos

Durante su primer mandato, Donald Trump ya expresó de forma pública su interés por la isla. Aquellas declaraciones sorprendieron a aliados y analistas, y reabrieron un debate en el que confluyen geografía, recursos y poder.

Hoy ese debate regresa con más fuerza. El Ártico se transforma con rapidez debido al calentamiento global y Groenlandia ocupa una posición central en ese proceso.

El interés por Groenlandia se explica, en primer lugar, por sus recursos naturales. En sus fondos marinos existen importantes reservas de gas y petróleo sin explotar que atraen atención política desde hace años.

La isla también alberga minerales estratégicos, entre los que destacan el cobre, el níquel, el zinc y el uranio. Todos ellos resultan esenciales para la industria energética y tecnológica.

Pero el mayor atractivo son las tierras raras. Groenlandia concentra alrededor de 1,5 millones de toneladas. Según el Servicio Geológico de Estados Unidos, dichas reservas incluyen lantánidos, escandio e itrio.

La disponibilidad de estos elementos –clave para baterías, energías renovables y sistemas electrónicos– condiciona las cadenas de suministro globales. Por ello, la isla gana peso en la competencia internacional.

Estratégicamente situada

La posición geográfica de Groenlandia refuerza su importancia estratégica, ya que la isla se sitúa junto a las rutas marítimas árticas del noroeste y del centro. El deshielo permite su uso durante más meses al año.

Si estas rutas se consolidan, el comercio marítimo será más rápido. Las distancias entre Asia, Europa y Norteamérica se reducirán, lo que alteraría los flujos comerciales tradicionales.

Groenlandia podría actuar entonces como punto de apoyo logístico. Su territorio facilitaría tareas de aprovisionamiento y mantenimiento, función que incrementaría su valor económico y estratégico.

Y desde una perspectiva militar, la isla ocupa una posición central: se encuentra entre Norteamérica, Rusia y Europa. Además, controla el acceso entre el océano Ártico y el Atlántico Norte. Este control tiene implicaciones para la seguridad marítima y aérea e influye en la vigilancia del espacio polar. Por ello, Groenlandia sigue siendo relevante para la defensa occidental.

Pieza clave en la seguridad estadounidense

Como decía más arriba, en 2019, Donald Trump ya planteó públicamente la posibilidad de comprar Groenlandia, una propuesta que se dirigió al Reino de Dinamarca. Aunque tanto Dinamarca como las autoridades groenlandesas rechazaron la idea, el episodio reveló un interés persistente. Estados Unidos nunca ha sido ajeno a la isla.

La presencia estadounidense se remonta a la Segunda Guerra Mundial. Durante la Guerra Fría, Groenlandia desempeñó un papel central en la defensa del hemisferio norte, una lógica estratégica que sigue vigente.

La base aérea de Thule, que continúa operativa, forma parte del sistema de alerta temprana y defensa antimisiles. Su función está directamente ligada a la seguridad estadounidense. La continuidad de esta base muestra que el interés no es coyuntural: responde a una visión estratégica de largo plazo. Groenlandia sigue siendo una pieza clave.

Más allá de Trump

Pero el debate sobre Groenlandia va más allá de Donald Trump. Refleja un cambio profundo en la política internacional donde la geografía vuelve a ocupar un lugar central.

El deshielo del Ártico abre nuevas rutas y oportunidades y, al mismo tiempo, intensifica la rivalidad entre potencias ganando valor político los recursos estratégicos.

A pesar del revuelo mediático de estos días, Groenlandia no es Venezuela. Una anexión de Groenlandia por parte de Estados Unidos es poco probable, pero la actual situación muestra cómo cambian los límites del debate internacional. Así, el Ártico se consolida como uno de los escenarios clave del siglo XXI.

The Conversation

Ana Belén López Tárraga no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Claves para entender por qué EE. UU. tendría muy complicado hacerse con el control de Groenlandia – https://theconversation.com/claves-para-entender-por-que-ee-uu-tendria-muy-complicado-hacerse-con-el-control-de-groenlandia-272920

Inseguridad alimentaria en Venezuela: qué está pasando y por qué importa

Source: The Conversation – (in Spanish) – By José Miguel Soriano del Castillo, Catedrático de Nutrición y Bromatología del Departamento de Medicina Preventiva y Salud Pública, Universitat de València

Barriada humilde en Caracas. Tomasz Podolski/Shutterstock

Al margen de la reciente captura de Nicolás Maduro por fuerzas estadounidenses, no debemos olvidar la situación de inseguridad alimentaria que arrastra Venezuela desde hace tiempo. Este concepto no se circunscribe solo a la “falta de comida”: también supone hablar de acceso, calidad, estabilidad y dignidad. Un país puede disponer de alimentos en mercados o bodegas y, aun así, millones de personas tienen dificultades para comprarlos de forma regular, o terminan consumiendo dietas poco nutritivas.

En Venezuela, esta circunstancia se ha mantenido como un problema estructural en la última década, pero con cambios de intensidad según la economía, la inflación y el financiamiento humanitario.

Una situación seria

Diversas fuentes coinciden en que la situación sigue siendo crítica. El Programa Mundial de Alimentos (PMA) indica que aproximadamente el 15 % de la población (alrededor de 4 millones de inividuos) necesita asistencia alimentaria urgente, y que alrededor del 40 % experimenta inseguridad alimentaria moderada o severa. Esto no significa que todas esas personas estén en la misma condición: “moderada” suele implicar reducción en calidad y cantidad de alimentos (saltarse comidas, dietas monótonas), mientras que “severa” puede significar quedarse sin comida o pasar días con muy poca ingesta.

Los organismos humanitarios ubican a Venezuela entre los países de la región con altas necesidades humanitarias sostenidas. El informe publicado el 29 de diciembre de 2025 por el Sistema Mundial de Información y Alerta Temprana de la Organización de las Naciones Unidas para la Alimentación y la Agricultura (FAO-GIEWS) señala que 7,9 millones de personas dentro del país necesitan asistencia, con necesidades críticas concentradas en seguridad alimentaria, entre otras áreas.

Lo que dicen los hogares: miedo a que la comida no alcance

El trabajo de campo en hogares ayuda a entender el componente cotidiano del problema. Según la última Encuesta Nacional sobre Condiciones de Vida (ENCOVI) del 2024, realizada por la Universidad Católica Andrés Bello, el 78,1 % de las personas entrevistadas estaba preocupada por la posibilidad de que los alimentos se acabaran, y el 41,1 % afirmó haberse quedado sin comida en su hogar en algún momento.

Estos indicadores importan porque muestran el “estrés” alimentario: cuando una familia no sabe si podrá comer mañana, tiende a reducir porciones, priorizar calorías baratas, endeudarse, vender bienes o sacrificar gastos en salud y educación.

Principales causas: inflación, ingresos y fragilidad del abastecimiento

Uno de los motores más repetidos en análisis recientes es el deterioro del poder adquisitivo. En una actualización de noviembre de 2025, la Red de Sistemas de Alerta Temprana contra la Hambruna advierte que las condiciones macroeconómicas han empeorado la inseguridad alimentaria, destacando que la inflación aumentó más del 100 % durante 2024–2025. Este incremento de precios estaba vinculado, entre otros factores, a tensiones en el tipo de cambio.

A día de hoy, el Fondo Monetario Internacional proyecta un aumento de la inflación del 269,9 % actual hasta el 682 % en 2026 en Venezuela. Por su parte, el salario mínimo nominal se mantiene congelado en 130 bolívares mensuales (equivalentes a 43 centavos de dólar) desde 2022.

Cuando los precios crecen más rápido que los ingresos, incluso quienes “tienen empleo” pueden terminar ajustando su alimentación a lo mínimo: menos proteína, menos frutas y verduras, más carbohidratos baratos y porciones menos abundantes. El bolívar venezolano cerró 2025 con una devaluación del 82,7 % frente al dólar, lo que erosiona aún más el poder de compra de los hogares.

A esto se suma la dependencia de importaciones y la vulnerabilidad de la producción local. FAO-GIEWS señala presiones sobre la producción de maíz y anticipa requerimientos de importación de cereales por encima del promedio en el ciclo 2025/26. Las importaciones de alimentos alcanzaron en 2024 un total de 3 022 millones de dólares (un 9 % más que en 2023) y representan aproximadamente el 60 % del suministro total de alimentos del país. Entre enero y julio de 2025, las compras externas del grupo agropecuario, alimentos y bebidas fueron de 5 837,1 millones de dolares, lo que supone un aumento de 11,3 % respecto al mismo periodo de 2024.

Consecuencias visibles: salud, nutrición infantil y decisiones difíciles

La inseguridad alimentaria deja huellas en el cuerpo y en la vida social, especialmente entre los más pequeños: las dietas pobres en micronutrientes y proteínas afectan al crecimiento, el aprendizaje y el sistema inmunitario infantil. Según Cáritas Venezuela, entre 8 y 10 de cada 100 niños evaluados sufren desnutrición aguda severa con riesgo de muerte, mientras la desnutrición crónica ha crecido de 18 % en 2016 a cerca del 30 % actualmente. Adicionalmente, más del 40 % de las embarazadas presentan déficit nutricional agudo y un 24 % de las mujeres en edad reproductiva padecen anemia.

En zonas vulnerables, muchas familias ajustan su dieta para “llenar” con lo que rinde más, pero eso no equivale a alimentarse bien. Las estrategias de supervivencia incluyen liquidación de ahorros (76 % de hogares), endeudamiento para comer (54 %) y venta de bienes personales.

Brechas territoriales y desigualdad

De cualquier modo, la crisis alimentaria no afecta por igual a todos los territorios. Las ediciones más recientes de la ENCOVI muestran que, aunque la pobreza extrema se ha reducido en promedio nacional, más del 70 % de los hogares siguen en situación de pobreza de ingresos y los mayores niveles de vulnerabilidad se concentran en zonas rurales, periféricas y fronterizas. En estos espacios –con fuerte presencia indígena o agrícola– la inseguridad alimentaria moderada y severa se mantiene por encima del promedio nacional, y los hogares reportan con más frecuencia saltarse comidas, reducir porciones y sustituir alimentos frescos por opciones más baratas y menos nutritivas.

Esta expansión territorial de la pobreza se vincula con el colapso de servicios básicos: más de 54 000 fallos eléctricos fueron registrados en enero de 2025. Además, según una encuesta reciente, un 86 % de los venezolanos indicó la presencia de agua fétida y sucia y un 87 % de la población requiere gas por bombona con distribución ineficiente.

Actualmente, a la situación inestable de Venezuela hay que sumar la situación de inseguridad alimentaria que mezcla emergencia (hogares que pasan hambre) con cronicidad (hogares que sobreviven con dietas pobres y vulnerables a cualquier shock). Los datos actuales muestran necesidades amplias y persistentes, y también advierten de que sin estabilidad macroeconómica y sin financiamiento humanitario suficiente, la situación puede empeorar rápidamente. Y esto, ante los próximos retos que vive el país, se debería de tener en cuenta para proteger y salvaguardar a su población.

The Conversation

José Miguel Soriano del Castillo no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. Inseguridad alimentaria en Venezuela: qué está pasando y por qué importa – https://theconversation.com/inseguridad-alimentaria-en-venezuela-que-esta-pasando-y-por-que-importa-272915

Notre-Dame de Paris et l’avènement du patrimoine spectacle-et-science

Source: The Conversation – France (in French) – By Patrice Gourbin, Historien de l’architecture [maître de conférences à l’Ecole nationale supérieure d’architecture de Normandie], Ecole Nationale supérieure d’architecture et de paysage de Bordeaux (ENSAP Bordeaux)

La reconstruction de Notre Dame de Paris, en avril 2024. CC BY

En 2019, la reconstruction de la charpente de Notre-Dame de Paris « à l’identique » des matériaux d’origine et de leur mise œuvre a été présentée comme une nécessité technique, historique et parfois même mystique. Or ce type d’attitude, relativement récente, mérite d’être interrogée en tant que fait culturel qui interroge le rapport de nos sociétés à leur histoire.


Fort de la mission qui lui avait été confiée par l’État dans les années 1830, le service des Monuments historiques fut pendant près de cent cinquante ans l’unique garant du patrimoine national.

Confronté aux dévastations de la Grande Guerre, il mit en place une doctrine de reconstruction des édifices ou parties d’édifices détruits qui fut reprise après la Seconde Guerre mondiale et se maintint inchangée jusqu’au milieu des années 1990. Il ne s’agissait pas de refaire les monuments « à l’identique » de ce qu’ils étaient avant la catastrophe, mais de leur redonner leur apparence originelle tout en les améliorant d’un triple point de vue, technique, archéologique et artistique.

Les charpentes furent par exemple reconstruites en béton armé pour des raisons d’économie, de facilité d’entretien et de résistance au feu. Le matériau pouvait aussi être utilisé pour renforcer des structures instables ou remplacer à moindre coût les maçonneries traditionnelles. À Rouen, la grande voûte en bois de la salle des procureurs du palais de justice, incendiée en mars 1944, fut reconstituée dans son apparence grâce à un voile mince de béton armé supportant à la fois un lambris de bois intérieur et la couverture extérieure en ardoises épaisses. La modification concernait l’ensemble de la structure de l’édifice : du fait de la poussée de la nouvelle voûte, trois fois plus lourde que l’ancienne, il fallut renforcer les fondations en sous-œuvre et forer l’épaisseur des murs pour y installer des tirants métalliques reliant la voûte, le plancher intermédiaire en béton et les fondations.

Retrouver un état de « référence »

Sur le plan archéologique, il était courant de supprimer des éléments considérés comme non pertinents, en particulier ceux du XIXᵉ siècle, une période dévalorisée de l’histoire de l’art. Le but était de retrouver un état de référence, souvent le plus ancien connu. Par exemple pour la reconstruction de l’église de Carignan (Ardennes) détruite en 1940, l’architecte en chef Yves-Marie Froidevaux choisit de revenir à l’état de 1681 en remplaçant la tour-porche du XIXe en pierre par un clocher en charpente de style classique.

Politiques de création

Enfin, la dernière amélioration concernait le domaine de la création. Si les éléments décoratifs répétitifs (corniches, garde-corps, décor géométrique ou végétal, modénature étaient refaits tels qu’ils étaient avant la catastrophe, ce n’était généralement pas le cas des éléments artistiques uniques, tels que tympans sculptés, chapiteaux, vitraux, mobilier. Leur remplacement était alors une occasion de faire appel à des créateurs contemporains.

Lors de la première reconstruction, des commandes furent passées auprès des artistes au cas par cas pour remplacer les éléments mobiliers détruits. Lors de la seconde, le service des Monuments historiques vit dans les destructions une opportunité de développer une politique de création dans les monuments anciens, en particulier dans le domaine du vitrail. L’intervention n’était pas uniquement réparatrice : les objets et vitraux du XIXe siècle, considérés comme inappropriés, étaient souvent supprimés, qu’ils soient endommagés ou non, au profit de créations neuves. La commande reposait sur une conception corporatiste : l’objectif était de créer une classe d’artisans spécialisés dans l’intervention en milieu patrimonial. Ce n’est qu’en 1955 que les commandes commencèrent à s’ouvrir à des artistes qui n’étaient pas aussi des maîtres-verriers, comme Jacques Villon (à Metz) ou Marc Chagall (à Reims).

Les dernières interventions sur les monuments endommagés par la seconde guerre mondiale datent du milieu des années 1980. À Rouen, la flèche de la tour Saint-Romain de la cathédrale fut reconstruite en 1984 avec une charpente en béton armé.

Incontestée, la reconstruction-amélioration s’appliquait à toutes sortes d’interventions, post-catastrophe ou non : la reconstitution des combles du Parlement de Bretagne à Rennes après l’incendie de 1994, la remise en état d’usage du château de Falaise (Calvados) à partir de 1997 ou de celui de Suscinio (Morbihan).

Nouvelles pratiques de reconstruction

Mais le milieu des années 1990 fut aussi celui de l’émergence de nouvelles pratiques de (re)construction, en dehors du champ d’action du service des Monuments historiques. Les interventions s’inspiraient des méthodes de l’archéologie expérimentale qui cherchait, par la reproduction du geste créateur, à mieux comprendre les artefacts originaux. À Saint-Sylvain-d’Anjou, une association initiée par le maire de la commune restitua un château à motte en bois de l’an mil à quelques du site originel afin de l’ouvrir à la visite. À Rochefort la reconstruction de la frégate l’Hermione débuta en 1992 avec un double objectif. Il s’agissait non seulement de refaire un objet à valeur mémorielle et patrimoniale, mais aussi de mettre en scène sa fabrication dans le cadre d’un chantier immersif ouvert au public.

La construction du château (imaginaire) de Guédelon qui débuta en 1997 reposait sur la même stratégie, mais avec une exigence supplémentaire dans le domaine de l’archéologie de la matière et du geste. Il s’agissait de retrouver les savoir-faire et les matériaux correspondant à la période de référence qui avait été choisie. Les interférences avec le présent étaient évacuées pour la science mais aussi pour le spectacle, avec par exemple des ouvriers vêtus de costumes médiévaux.

Le patrimoine-spectacle existait déjà : le premier son et lumière avait eu lieu à Chambord en 1950 avec un succès planétaire et de multiples avatars au fil du temps comme celui du Puy-du-Fou. Guédelon y ajoutait une dimension scientifique et son succès témoignait de la profondeur des attentes du public, qui n’était pas seulement consommateur de divertissement.

Les actuels chantiers de la charpente de la cathédrale de Paris et de la flèche de l’abbatiale de Saint-Denis sont dans la continuité de ce renversement des pratiques engagé dans les années 1990. La triple amélioration qui caractérisait les reconstructions suivant les deux guerre mondiales s’est évaporée. Dévalorisées, les techniques modernes sont considérées comme inappropriées au moment même où leur utilisation plus que centenaire aurait pu en démontrer la pertinence économique et structurelle.

Quant à l’amélioration créative, elle paraît désormais anachronique comme le montre le procès intenté à l’encontre de l’insertion de vitraux contemporains à Notre-Dame de Paris voulue par le président de la République. Appliquant les leçons de Rochefort et Guédelon, les deux chantiers parisiens convoquent science et spectacle. Il s’agit tout autant de retrouver l’apparence ancienne que de s’assurer du geste et de la matière ancienne, sous le regard du public qui est invité à suivre l’avancement des travaux, sur site (à Saint-Denis) ou en différé (à Paris) par médias interposés. Enfin l’équilibre économique est assuré de la même manière, par les dons et les recettes du chantier-spectacle.

La reconstruction de tout ou partie du patrimoine disparu a-t-elle trouvé un nouveau départ ? Le patrimoine-spectacle, qui est aussi patrimoine-science a trouvé son public, mais il ne s’applique qu’à des édifices iconiques de l’histoire nationale. Peut-être marque-t-il la fin de cette expansion patrimoniale dénoncée par les experts dans les années 1990, de l’historienne Françoise Choay, qui y voyait le signe d’un « narcissisme collectif », au directeur de l’architecture et du patrimoine François Barré qui s’inquiétait de l’abus patrimonial. Quoiqu’il en soit, le patrimoine-spectacle-et-science peut dès maintenant être érigé en emblème du champ culturel patrimonial des années 2020.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Patrice Gourbin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Notre-Dame de Paris et l’avènement du patrimoine spectacle-et-science – https://theconversation.com/notre-dame-de-paris-et-lavenement-du-patrimoine-spectacle-et-science-263672

Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ?

Source: The Conversation – France (in French) – By Marie Bellugue Duclos, Doctorante, Université Paris-Saclay

Le suivi de la qualité de l’air s’est grandement démocratisé grâce à l’essor de microcapteurs électroniques accessibles à tout un chacun. Ces dispositifs sont-ils performants, et à quelles conditions peuvent-ils fournir une information utilisable ? État des lieux.


La pollution de l’air extérieur peut être liée au trafic routier, au chauffage au bois, aux activités industrielles ou encore aux feux de forêt et aux éruptions volcaniques. La diversité des particules qui en résulte illustre bien la nature diffuse et mobile de cette pollution. Celle-ci a des conséquences graves en termes d’effets sur la santé, allant des troubles respiratoires immédiats à des maladies chroniques incurables.

Selon l’Organisation mondiale de la santé (OMS), la pollution de l’air, tous polluants confondus, est responsable de 7,4 millions de décès par an dans le monde dont 4,2 millions liés à l’air extérieur et 3,2 millions à l’air intérieur. En France, le fardeau sanitaire des particules fines entraîne à lui seul 40 000 décès chaque année, et est associés à un coût socio-économique estimé à 13 milliards d’euros.

Aujourd’hui, suivre la qualité de l’air auquel chacun est exposé n’a jamais été aussi simple. En quelques clics, il devient possible d’acheter des microcapteurs, d’accéder à des cartes en ligne ou de télécharger des applications mobiles fournissant un accès à ces données en temps réel. Tout comme la météo guide le choix de prendre un parapluie, cet accès offre aujourd’hui aux citoyens et aux décideurs un outil pratique pour orienter leurs actions.

Pourtant, derrière cette démocratisation, se pose la question de la performance de ces microcapteurs opto-électroniques. S’agit-il vraiment de sentinelles de confiance ? Faisons le point.




À lire aussi :
Le potentiel oxydant : un nouvel indice pour mesurer la pollution atmosphérique


Des microcapteurs dans l’air du temps

Commençons par rappeler comment est menée la surveillance réglementaire de la qualité de l’air en France. Elle est coordonnée par le Laboratoire central de surveillance de la qualité de l’air (LCSQA) et mise en œuvre au niveau régional par les associations agréées pour la surveillance de la qualité de l’air (AASQA). Les données, librement accessibles grâce au site régional des AASQA, sont produites selon des protocoles normés afin de s’assurer qu’elles soient comparables d’une station de mesure à l’autre et d’une région à l’autre.

Exemple de station de mesure officielle de la qualité de l’air.
Michael Coghlan, CC BY-SA

Toutefois, le nombre de stations de mesure mises en place résulte d’un compromis entre couverture géographique et coûts. La modélisation, basée sur les modèles Chimere ou Sirane par exemple, permet d’extrapoler la qualité de l’air sur un territoire donné, mais elle reste dépendante de la qualité et du nombre des mesures locales.

Afin de renforcer la couverture sans augmenter les coûts, la directive européenne, dont la réglementation française découle, autorise les réseaux de surveillance réglementaire à procéder à des mesures indicatives, pour lesquelles les exigences de qualité sont plus souples. Ce cadre favorise l’intégration des microcapteurs de 10 à 100 fois moins coûteux que les équipements utilisés pour les stations de référence, tant à l’achat qu’en fonctionnement.

Ce marché a le vent en poupe. En 2023, il pesait plus de 6 milliards d’euros, marché qui pourrait s’élever en 2032 à 13,5 milliards. En 2022, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) dénombrait 60 000 références produits disponibles sur les plateformes de vente en ligne.

On y retrouve donc des microcapteurs à bas coût prêts à l’emploi capables de collecter et de transmettre les données en temps réel. Le prix des composants se limite à quelques dizaines d’euros, tandis que le coût total du dispositif varie d’environ une centaine à plusieurs milliers d’euros selon les fonctionnalités.

Une mesure facile, mais une interprétation parfois délicate

Que valent ces différents types de microcapteurs ? Pour le savoir, il faut d’abord définir ce que l’on souhaite mesurer lorsqu’on parle de particules fines. Loin d’être un mélange défini, les particules dans l’air forment un ensemble hétérogène et variable par leur forme, leur taille et leur état.

Trois catégories se distinguent :

  • les hydrométéores (pluie, neige, brouillard),

  • les aérosols (suie, poussières, embruns, composés organiques…)

  • et les bioaérosols (pollens, bactéries, virus, spores…).

Par convention, la matière particulaire en suspension (ou Particulate Matter, PM) est décrite en fonction de la taille de ses constituants, dans lesquels les hydrométéores doivent être exempts. Ainsi, par convention, les particules grossières PM10, les particules fines PM2,5 et les particules ultrafines PM0,1 représentent respectivement des ensembles hétérogènes de taille inférieure ou égale à 10, 2,5 et 0,1 micromètre (µm).

Plus les particules sont petites, plus elles sont susceptibles de pénétrer profondément dans les voies respiratoires. Les PM1,0 peuvent être également suivies par des microcapteurs et des équipements de référence, mais elles ne font pas l’objet d’une réglementation spécifique ni ne sont associées à des seuils sanitaires!




À lire aussi :
Freinage et particules fines : une pollution routière oubliée des évolutions réglementaires ?


Or, les microcapteurs bas coût pour le suivi des particules, dont la mesure est basée sur leur comptage grâce à un principe optique, sont sensibles aux conditions environnementales et aux caractéristiques des particules, ce qui fragilise les performances. Leur fonctionnement repose sur la diffusion de la lumière par le passage d’une particule à travers un faisceau laser. Il s’agit du même principe qui rend visible un rayon lumineux dans la fumée. L’intensité détectée dans une direction donnée dépend de la taille, de la forme, de la composition et de l’orientation des particules.

Il faut également noter que ces microcapteurs sont calibrés avec des particules de polystyrène, loin de refléter l’hétérogénéité réelle de la pollution de l’air extérieur. S’ajoutent à cela leur encrassement et leur vieillissement, qui dégradent les performances dans le temps. L’interprétation des données exige donc une connaissance fine de ces limites.

Des données précieuses… mais sous conditions

Pour autant, les microcapteurs ne sont pas à exclure. En effet, en cas d’épisode de pollution, ils détectent les mêmes tendances que les stations réglementaires, justifiant leur usage pour des mesures indicatives.

Pour s’y retrouver, les organismes pour la surveillance de la qualité de l’air ont mené des évaluations en confrontant les microcapteurs aux équipements réglementaires. Accessibles en ligne, les résultats du challenge Airlab (Airparif, France) et de l’AQ-SPEC (South Coast AQMD, États-Unis) révèlent des corrélations satisfaisantes entre microcapteurs et ces équipements pour les PM1,0 et PM2,5. En revanche, elles sont moins bonnes pour les PM10 , car la conception des microcapteurs et le principe de la mesure ne permettent pas de bien les détecter.

Ces microcapteurs peuvent être achetés autant par des citoyens, des collectivités, des industriels, des associations ou des chercheurs. Tous ces acteurs peuvent publier leurs données sur des cartes interactives, ou y contribuer ponctuellement.

Contrairement aux cartes des AASQA, qui sont comparables entre elles grâce à des protocoles stricts, chaque plateforme adopte sa propre présentation.

Il est donc essentiel de bien comprendre l’information affichée : les points de mesure peuvent fournir une information visuelle qui représente une concentration (Atmotube par exemple) ou un indice de qualité de l’air (IQAir par exemple) avec un jeu de couleurs propre aux plate-formes comme des données chiffrées sans repère pour interpréter la donnée (OpenSenseMap par exemple). De plus, selon les plateformes, une même carte peut afficher tout un ensemble d’indicateurs de pollution de l’air, pas seulement ceux liés à un polluant spécifique comme les particules.

D’un service à l’autre, les cartes de la qualité de l’air peuvent varier considérablement, comme le montre cette comparaison du 17/11/2025 à 05h00 entre les cartes disponibles via IQAir (en haut) et Waqi (en bas).
IQ Air/Waqi.info

Par ailleurs, peu de plateformes précisent si les mesures sont faites en intérieur, en extérieur, en mobilité ou en point fixe. De plus, une donnée en temps réel et une donnée moyennée sur une période donnée ne sont pas comparables. De ce fait, pour une même zone géographique, la qualité de l’air affichée peut varier d’une plateforme à l’autre, selon l’emplacement de la mesure, l’indicateur utilisé et la période considérée. En France, les données des AASQA restent la référence pour une information de confiance.

Les microcapteurs n’en restent pas moins des sentinelles utilisables sous réserve d’une excellente maîtrise de leurs limites. L’utilisation individuelle de microcapteurs par le grand public peut être encadrée par un protocole rigoureux pour assurer la qualité des données et accompagner leur interprétation. Le projet d’OpenRadiation, qui porte sur la mesure de la radioactivité, en est un exemple : lorsqu’une mesure faite par l’utilisateur d’un microcapteur apparaît inhabituelle sur la carte, un gestionnaire contacte alors ce contributeur pour comprendre l’origine de cette déviation. La cartographie de la qualité de l’air s’appuie sur une plus grande quantité de microcapteurs, ce qui rend plus difficile un suivi individualisé. Néanmoins, une validation des données à l’instar de ce qui est réalisé pour le suivi réglementaire pourrait être envisagée à l’aide d’un traitement adapté, avec un filtrage par exemple.

Ainsi, comme en témoignent la Captothèque (Atmo Auvergne-Rhône-Alpes) ou Ambassad’air (Rennes), programmes de sciences participatives basés sur la mesure citoyenne de la qualité de l’air, les microcapteurs peuvent non seulement fournir des indications, mais aussi contribuer à l’engagement citoyen pour l’observation environnementale.




À lire aussi :
Ces citoyens qui mesurent la radioactivité de leur environnement


The Conversation

Marie Bellugue Duclos a reçu des financements du CNRS pour sa thèse. Elle utilise des micro-capteurs pour ses recherches.

Denis Machon a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).

Michael Canva a reçu des financements du CNRS et de l’ANR (France), du CRSNG (Canada) et du FRQ (Québec).

ref. Microcapteurs pour suivre la qualité de l’air : gadgets ou véritables outils de suivi ? – https://theconversation.com/microcapteurs-pour-suivre-la-qualite-de-lair-gadgets-ou-veritables-outils-de-suivi-270124

Pourquoi la procrastination n’a rien à voir avec la paresse – et comment la surmonter

Source: The Conversation – France (in French) – By Annemieke Apergis-Schoute, Lecturer in Psychology, Queen Mary University of London

Procrastiner ne veut pas dire que l’on manque de force de caractère. Cela tient plutôt à la capacité de notre cerveau à gérer le stress et à un manque de flexibilité. La bonne nouvelle, c’est que la souplesse nécessaire pour la surmonter peut s’acquérir.


La plupart d’entre nous ont déjà vécu cette situation : une échéance approche, la tâche est parfaitement réalisable, mais, au lieu de nous y mettre, nous nous sentons soudainement obligés de ranger un tiroir ou de réorganiser les applications sur notre téléphone. La procrastination peut sembler irrationnelle, vue de l’extérieur, mais il est difficile d’y résister quand on y est soi-même confronté. Bien qu’elle soit souvent considérée comme un manque de discipline, des recherches montrent qu’elle est bien plus liée à la flexibilité (ou à la rigidité) avec laquelle notre cerveau réagit à l’inconfort et à l’incertitude.

En d’autres termes, la procrastination n’est pas un problème de gestion du temps, mais un problème de régulation des émotions. Les gens ne retardent pas les choses parce qu’ils manquent de compétences de planification, mais parce que leur cerveau cherche à échapper à un état intérieur émotionnel difficile. Lorsque je demande à mes étudiants pourquoi ils procrastinent, leurs réponses sont étonnamment similaires : « Je ne sais pas par où commencer », « Je me sens perdu », « Je suis anxieux », « Je me sens dépassé ». Aucun d’entre eux ne dit « Je m’en fiche » : la procrastination vient généralement du fait que l’on se soucie trop des choses.

Surtout, le phénomène d’évitement empêche le cerveau de se rendre compte d’une réalité importante : commencer une action est souvent gratifiant. Le premier pas, aussi petit soit-il, suffit à libérer de la dopamine. Cela aide à augmenter la motivation après – et non, avant – avoir commencé. Mais lorsque nous évitons de nous confronter à la tâche en question, nous ne ressentons jamais ce signal de récompense, et elle va continuer à nous sembler tout aussi intimidante le lendemain.

Flexibilité cognitive

La flexibilité cognitive est la capacité à actualiser ses attentes lorsque les circonstances changent, à modifier sa stratégie et à s’affranchir des schémas inefficaces. C’est un élément fondamental de l’apprentissage : le cerveau fait des prédictions, reçoit de nouvelles informations et s’adapte en conséquence.

Imaginez que vous attendiez un bus coincé dans les embouteillages. Une personne flexible changera rapidement d’itinéraire pour emprunter la ligne de métro qui, si elle correspond habituellement à un trajet plus long, permettra désormais d’aller plus vite. Une personne rigide continuera d’attendre, non pas parce qu’elle ignore qu’il existe une alternative, mais parce que changer d’itinéraire lui semble difficile ou « injustifié », et que son esprit reste figé sur son choix initial.

Je constate clairement ce schéma dans mes recherches sur le trouble obsessionnel compulsif (TOC). Bien que très différent de la procrastination, ce phénomène implique une difficulté à s’écarter d’une prédiction initiale, en particulier lorsqu’il y a incertitude ou risque d’erreur. Lorsque le cerveau ne parvient pas à actualiser ses informations, il reste focalisé sur une idée.

Les étudiants d’aujourd’hui sont confrontés à une véritable tempête. Les téléphones et les réseaux sociaux réduisent leur capacité d’attention. Le perfectionnisme amplifie l’autocritique. Et l’anxiété atteint des niveaux records dans les universités britanniques. Conjugués, ces facteurs affaiblissent la capacité du cerveau à s’adapter, ce qui est précisément la capacité nécessaire pour entreprendre une tâche difficile.

Du point de vue des neurosciences, la procrastination représente un bras de fer entre deux systèmes. D’un côté agissent des mécanismes de défense, activés lorsqu’une tâche semble incertaine, difficile ou évaluative. Cela donne lieu à des pensées telles que « Et si c’était terrible ? », « Et si j’échouais ? » De l’autre intervient le système de récompense, activé par tout ce qui procure un sentiment de bien-être immédiat (faire défiler son fil d’actualité, ranger, envoyer des messages à ses amis).

Lorsque les mécanismes de défense dominent, il peut être impossible de se mettre au travail. Pour les esprits rigides, en particulier, le cerveau a du mal à revenir sur sa prédiction initiale selon laquelle la tâche constitue un danger ou s’avère insurmontable. L’évitement devient alors la seule option possible, et le petit soulagement qui est alors ressenti incite le cerveau à répéter ce comportement.

En effet, des recherches montrent que la procrastination est essentiellement un remède à court terme pour améliorer l’humeur : une échappatoire rapide à un malaise, qui génère elle-même davantage de stress par la suite.

Il y a une génération, procrastiner exigeait de la créativité. Il fallait trouver des distractions. Aujourd’hui, ce sont elles qui vous trouvent. Les réseaux sociaux sont conçus pour déclencher une recherche de nouveauté stimulée par la dopamine. Pour quelqu’un qui est déjà anxieux ou surchargé, le téléphone devient une échappatoire omniprésente. Comme l’a dit un étudiant : « Il est plus facile de ne pas faire le travail. » Non pas parce que le travail n’a pas d’importance, mais parce que l’alternative qui lui est proposée offre une récompense instantanée.

La flexibilité peut se travailler

Alors, comment éviter la procrastination ? Il ne s’agit pas de devenir plus discipliné, mais plutôt de renforcer les systèmes cérébraux qui vous permettent de vous mettre au travail. Voici quelques moyens d’y parvenir.

Décomposez les tâches
Divisez le travail en unités concrètes et gérables : rédigez un titre, rédigez quelques points clés ou lisez une page. Cela réduit la menace perçue d’une tâche importante et sans contours bien définis, et cela procure au cerveau de petites récompenses régulières sous forme de dopamine à chaque étape franchie.

Misez sur les micro-changements
Les micro-changements sont de minuscules actions initiatrices : ouvrir le document, poser vos notes sur le bureau. Ils ne réduisent pas la tâche elle-même, mais ils interrompent l’état de « blocage » et incitent doucement le cerveau à se mettre en mouvement.

Changez de perspective
Recadrez la tâche comme si vous conseilliez quelqu’un d’autre : « Que dirais-je raisonnablement à un ami dans cette situation ? » Cela assouplit la pensée rigide et axée sur la menace et aide le cerveau à générer des interprétations alternatives plus souples.

Développez votre tolérance émotionnelle
Le malaise lié au démarrage atteint rapidement son apogée, puis diminue. Se le rappeler peut rendre l’évitement moins irrésistible.

Accordez-vous des récompenses immédiates
Associez la tâche à quelque chose d’agréable (de la musique, une boisson chaude ou le fait de travailler avec d’autres personnes) afin que la première étape soit moins pénible et plus gratifiante.

Ensemble, ces stratégies renforcent la forme de flexibilité cognitive la plus pertinente pour affronter la procrastination : la capacité à passer de l’évitement à l’action lorsqu’une tâche semble inconfortable. D’autres formes de flexibilité cognitive (telles que le changement de règle ou la flexibilité motrice) peuvent également être améliorées, mais grâce à différents types d’entraînement.

Si vous vous reconnaissez dans les étudiants qui se disent « anxieux », « dépassés » ou « ne sachant pas par où commencer », cela ne signifie pas que vous êtes paresseux. Cela signifie simplement que votre cerveau a du mal à changer d’état. La procrastination en dit beaucoup moins sur la volonté que sur la façon dont notre esprit gère l’incertitude et l’inconfort.

Et ce qui est encourageant, c’est que la procrastination n’est pas immuable. La flexibilité s’améliore avec la pratique. Chaque fois que vous faites un pas, même minime, comme ouvrir le fichier ou écrire la première ligne, vous ne vous contentez pas de progresser dans la tâche. Vous montrez à votre cerveau que commencer est faisable, supportable et souvent gratifiant.

Au fil du temps, ces petits changements s’accumulent pour produire quelque chose de puissant : un esprit capable de se diriger vers ce qui compte, plutôt que de fuir l’inconfort.

The Conversation

Annemieke Apergis-Schoute a reçu un financement du Wellcome Trust pour ses précédentes recherches sur les TOC.

ref. Pourquoi la procrastination n’a rien à voir avec la paresse – et comment la surmonter – https://theconversation.com/pourquoi-la-procrastination-na-rien-a-voir-avec-la-paresse-et-comment-la-surmonter-272658

François Mitterrand, impossible héros de la gauche ?

Source: The Conversation – France in French (3) – By Judith Bonnin, Maîtresse de conférences en histoire contemporaine, Université Bordeaux Montaigne

François Mitterrand disparaissait il y a trente ans, le 8 janvier 1996. Premier président de gauche sous la Vᵉ République (de 1981 à 1995), il reste omniprésent dans l’imaginaire français, comme en témoignent de nombreux films ou livres qui lui sont régulièrement consacrés. Malgré d’importantes réformes (abolition de la peine de mort, retraite à 60 ans, RMI…), son legs politique est complexe à assumer à gauche, le parcours de l’homme étant entaché de zones sombres (Vichy, le colonialisme) et d’un soupçon permanent d’insincérité ou de trahison des idéaux qui l’ont porté au pouvoir (rupture avec le capitalisme). Quels sont les apports récents de la recherche à ce sujet ?


En 2016, le centenaire de la naissance de François Mitterrand et les vingt ans de sa disparition avaient donné lieu à de nombreuses commémorations et publications. Dix ans plus tard, de nouvelles recherches ont revisité l’histoire mitterrandienne en s’appuyant notamment sur des sources inédites publiées, à l’image des Lettres à Anne et du Journal pour Anne (2016), ou déposées en archives. Outre sa place croissante dans la littérature scientifique, François Mitterrand s’est aussi installé dans le paysage fictionnel français, dans le Promeneur du Champ-de-Mars (2005), les Saveurs du palais (2012), l’Inconnu de la Grande Arche (2025), dans les séries Bardot (2023) et Tapie (2023), ou, actuellement dans Mitterrand confidentiel, diffusée sur France 2. À travers ces récits, auxquels s’ajoutent des témoignages comme le documentaire écrit par sa fille Mazarine, François Mitterrand, une autre vie possible (2025) , cette figure de la politique française du second vingtième siècle peuple toujours puissamment les imaginaires de nos contemporains. Si sa biographie est désormais bien connue, son héritage, sans cesse réinterrogé, demeure marqué par une forte charge polémique et émotionnelle qui fait obstacle à une héroïsation partisane.

En effet, dans le panthéon de la gauche socialiste, on compte Jean Jaurès (1859-1914), Léon Blum (1872-1950), et, de manière moins évidente, François Mitterrand. Jean Jaurès est célébré comme le grand pacifiste internationaliste, le socialiste républicain, le défenseur des ouvriers de Carmaux. Léon Blum, c’est le choix de l’exercice du pouvoir en démocratie, le Front populaire et ses conquêtes, le combat contre l’antisémitisme et contre Vichy. François Mitterrand est le socialiste qui a le plus longtemps exercé le pouvoir en France : quatorze ans à l’Elysée. Mais la complexité de son parcours l’empêche d’incarner le héros de gauche « idéal ». S’il a longtemps œuvré à contrôler le récit de son parcours, la fin de son dernier septennat et de sa vie est marquée par des révélations tant privées (sa maladie, sa fille cachée) que politiques – notamment la publication d’Une jeunesse française, par Pierre Péan, en 1994, qui révèle à beaucoup son passé durant la Seconde Guerre mondiale.

Trois dossiers principaux – la Seconde Guerre mondiale, la politique (néo)coloniale de la France en Afrique et le rapport au capitalisme – font, selon nous, obstacle à un rapport apaisé de la gauche à François Mitterrand.

Mitterrand et la Seconde Guerre mondiale

Le premier sujet problématique concerne les rôles que François Mitterrand joua durant la période vichyste : la photographie prise avec Pétain le 15 octobre 1942, sa décoration de la francisque en avril 1943, sa relation avec René Bousquet notamment agitent encore régulièrement la sphère éditoriale et médiatique, alors même que l’essentiel des faits est connu de longue date.

Membres du Commissariat général au reclassement des prisonniers de guerre, François Mitterrand (à droite) et Marcel Barrois (au centre) sont reçus en audience par le maréchal Pétain, le 15 octobre 1942.

Né dans la bourgeoisie charentaise en 1916, François Mitterrand s’engage, étudiant, en politique dans la droite ultraconservatrice de la ligue des Croix-de-Feu du colonel de La Rocque. Mobilisé en 1940, fait prisonnier, il s’évade d’Allemagne, trouve un emploi par ses réseaux familiaux dans l’administration de Vichy, adhère à la Révolution nationale sans être antisémite. Puis il entre progressivement en résistance en 1943 par patriotisme anti-allemand et bascule totalement dans la Résistance en novembre 1943. À la Libération, il s’ancre progressivement et définitivement à gauche.

Beaucoup de ces éléments étaient connus de ses contemporains. L’historienne Noëlline Castagnez a montré que, dès les années 1950, les bancs de droite de l’Assemblée nationale bruissent de l’insulte « francisque Mitterrand » et que durant la campagne présidentielle de 1965, c’est de Gaulle lui-même qui choisit de ne pas se servir de cet élément pour ne pas affaiblir le mythe de la France résistante ou la Ve République. À côté des réécritures ou « recompositions » de Mitterrand lui-même, l’histoire des oublis et (re)découvertes de son passage par Vichy est donc aussi celle des arbitrages de ses alliés et adversaires.

Le choc de la publication d’Une jeunesse française, du journaliste Pierre Péan, en 1994, sera particulièrement fort pour les jeunes socialistes, percevant leur parti comme un rempart homogène contre l’extrême droite depuis les années 1930, élevés dans le mythe résistancialiste selon le terme d’Henry Rousso, et découvrant progressivement, comme l’opinion, l’existence de « vichysto-résistants ».

Ce passé mitterrandien est toujours entouré d’un halo sulfureux, car certains y voient le « péché originel » d’un homme dont le parcours militant est perçu comme insincère, structuré seulement par son ambition.

Mitterrand et le colonialisme

Le rôle de François Mitterrand dans la politique coloniale puis néocoloniale française est un deuxième obstacle mémoriel majeur à la pleine revendication de son héritage à gauche. Cet aspect de sa vie politique a, en effet, fait l’objet d’une percée historiographique et éditoriale dans les années 2024-2025 (avec les travaux d’Anne-Laure Ollivier et Frédéric Turpin, de Thomas Deltombe, de Pascal Blanchard et Nicolas Bancel). Si, à l’issue de ces travaux, de réelles nouveautés ont été mises en lumière, à l’image d’un récit de voyage en Afrique subsaharienne tenu par Mitterrand entre janvier et février 1950, et que nous avons édité, l’essentiel était connu pour qui s’intéressait à la question.




À lire aussi :
François Mitterrand, à l’origine du déclin de l’influence postcoloniale de la France en Afrique ?


François Mitterrand avait notamment été ministre de la France d’outre-mer en 1950 et ministre de l’intérieur en 1954, c’est à ce titre qu’il déclare que « l’Algérie, c’est la France », formule alors plutôt consensuelle parmi les forces de gouvernement (et non slogan des ultras de l’Algérie française), puis garde des Sceaux en 1956-1957. Sa dureté à ce poste a notamment été mise en lumière par Benjamin Stora et François Malye en 2010.

L’actualité éditoriale mitterrandienne à ce sujet s’explique par la vivacité des questions mémorielles postcoloniales et par les avancées historiennes sur le rôle la France en Afrique, et notamment la remise en 2021 du rapport de la Commission Duclert sur « La France, le Rwanda et le génocide des Tutsi (1990-1994) ». Ministre colonial de 1950, leader d’un parti anticolonial en 1971, président du discours tiers-mondiste dit de Cancún en 1981 et chef d’État en responsabilité au moment du génocide des Tutsis en 1994 : le parcours de François Mitterrand peut être réduit par des militants déçus ou par des opposants à celui d’un homme fondamentalement de droite passé de colonial à néocolonial.

Les historiens, eux, tentent de contextualiser chacune de ces séquences et en soulignent les continuités de manière plus fine : en 1950, dans un monde politique où la décolonisation est une option très marginale, même à gauche, Mitterrand est un colonial réformiste et progressiste. Comme nous l’avons montré en 1971, il endosse assez peu le programme tiers-mondiste du PS, porté par des experts issus de la gauche chrétienne qui n’ont jamais totalement eu son attention. Ses grilles de lecture et alliances forgées à l’époque coloniale perdurent alors discrètement, sans que ce soit un sujet pour la majorité de l’électorat de gauche : le rapport des candidats au passé colonial français ne fut pas un enjeu de la campagne présidentielle de 1981.

Mitterrand et le capitalisme

Un troisième dossier nourrit négativement son bilan et alimente à gauche son procès en traîtrise : c’est celui de l’absence de rupture avec le capitalisme. C’est en effet sur cette idée forte, centrale dans la doctrine socialiste, qu’il conquiert la tête du PS, proclamant à la tribune du congrès d’Épinay en 1971 : « Celui qui n’accepte pas la rupture […] avec la société capitaliste, celui-là, je le dis, il ne peut pas être adhérent du Parti socialiste. »

Or à cette promesse, qui contribue à l’union de la gauche (1972-1977) et porte l’espoir et le vote de beaucoup à gauche en mai 1981, répond l’annonce très dramatisée du « tournant de la rigueur », le 21 mars 1983. À cette date, le franc est dévalué pour la troisième fois par les socialistes et maintenu dans le système monétaire européen (SME). Ce choix mitterrandien est vécu par certains comme celui de la raison et de l’Europe. Pour d’autres, il signe, par-delà le refus d’une « autre politique » monétaire, la fin du volontarisme social et économique socialiste, le triomphe « des marchés » et celui de l’Europe libérale. L’adoption du traité de Maastricht par référendum à une courte majorité, en septembre 1992, en dépit du fort engagement personnel de François Mitterrand, confirme cette prééminence européenne et libérale du cap présidentiel pour les déçus de 1983. Si la réalité économique et la chronologie de ce « tournant » ont été relativisées par les historiens, à l’instar de Frédéric Bozo qui dans un ouvrage récent revient sur cette « névrose nationale », ce moment reste particulièrement douloureux dans l’histoire de la gauche.

Si le bilan mitterrandien existe, par-delà 1983, (on songe par exemple à la création du revenu minimum d’insertion en 1988), le traumatisme ressenti à l’annonce du « tournant » introduit de fait une fracture qui sépare, d’une part, les grandes mesures de 1981-1982 (on citera pêle-mêle l’abolition de la peine de mort, les nationalisations, la 5ᵉ semaine de congés payés, la semaine de 39 heures, la décentralisation, la retraite à 60 ans, la réforme de l’audiovisuel, les lois Auroux) et, d’autre part, la rigueur, les cohabitations et un second septennat plus marquant sur le plan diplomatique qu’intérieur. À un temps « socialiste » s’opposerait ainsi un temps plus « gaullo-mitterrandiste », qui l’éloigne de la filiation de Jaurès et de Blum.

Le troisième président préféré des Français

En 2026, la peur du retour au pouvoir de l’extrême droite, la polarisation par celle-ci du débat public sur les questions postcoloniales, migratoires et identitaires, l’aggravation continue des crises économiques, politiques, européennes sont des enjeux face auxquels l’héritage mitterrandien ne semble pas le plus univoque et efficace pour la gauche et les socialistes contemporains. La dynamique d’« union de la gauche » qui a porté Mitterrand au pouvoir, au détriment de ses partenaires, n’offre pas non plus de modèle réactivable, au contraire du plus lointain et aussi plus fantasmé « front populaire ».

En 2021, un sondage Ifop classait François Mitterrand troisième président de la République préféré des Français. En tête du classement, de Gaulle, héros national et seul président à avoir fondé une famille politique se revendiquant de manière pérenne de son héritage. En second, le gaulliste Jacques Chirac, qu’une vague de nostalgie avait érigé dès les années 2010 en icône « swag » (stylé, cool), et dont la disparition en 2019 avait suscité une forte émotion. François Mitterrand arrivait cependant largement en tête parmi les sympathisants de gauche.

À l’image de la panthéonisation en 2025 de Robert Badinter, son ami et ministre, qui consacre une part de l’héritage socialiste et humaniste de 1981, on peut ainsi supposer que la mémoire militante, comme la mémoire nationale, continuera à exercer sur le bilan mitterrandien ce « droit d’inventaire » – revendiqué par Lionel Jospin dès 1995 et par François Hollande en 2009 – en sélectionnant ce qui peut, aujourd’hui encore, être rassembleur.


Judith Bonnin est l’autrice, avec Pierre-Emmanuel Guigo, de Mitterrand, à paraître le 13 janvier 2026 aux PUF_.

The Conversation

Judith Bonnin est experte pour la Fondation Jean-Jaurès, qui a financé la publication de sa thèse. Elle est membre du conseil scientifique de l’Institut François Mitterrand.

ref. François Mitterrand, impossible héros de la gauche ? – https://theconversation.com/francois-mitterrand-impossible-heros-de-la-gauche-272710

La « défense avancée » d’Israël au Proche-Orient

Source: The Conversation – France in French (3) – By Lina Kennouche, Chercheuse associée au CREAT, Université de Lorraine

En dépit des accords de cessez-le-feu conclus avec le Liban et à Gaza, et des discussions en cours avec la Syrie sur les contours d’un accord de sécurité, Israël poursuit une politique dite de « défense avancée » qui fait peu de cas de la souveraineté de ses voisins. Au nom de l’impératif de la sanctuarisation de son territoire, Tel-Aviv continue de redéfinir les frontières, d’étendre sa profondeur stratégique et d’asseoir son contrôle sur son voisinage. Cette politique se heurte toutefois de plus en plus aux intérêts de puissances régionales, comme la Turquie ou l’Arabie saoudite.


Depuis deux ans, l’accumulation de succès tactiques conduit Tel-Aviv à opter pour une politique impériale qui se poursuit en dépit des différents processus de négociations en cours. Au Liban, à Gaza, en Syrie, cette politique ne va pas sans susciter de tensions avec les grands acteurs de la région.

Détruire le Hezbollah… ou détruire le Liban ?

Au Liban, la guerre d’attrition visant à détruire les capacités militaires du Hezbollah – organisation libanaise alliée de l’Iran – et à décapiter sa chaîne de commandement a abouti à l’accord de cessez-le-feu du 27 novembre 2024.

Le dossier libanais est perçu par Israël comme le point de départ de la stratégie de restructuration du Moyen-Orient. Bien que le texte de l’accord ne prévoie que la cessation des hostilités et le retrait des forces militaires du Hezbollah et de ses armes du sud de la rivière Litani en échange d’un retrait israélien des cinq positions stratégiques qu’il occupe au Sud-Liban, la lettre complémentaire (side letter) adressée par Washington à Tel-Aviv donne un blanc-seing à la partie israélienne pour « répondre aux menaces » et « agir à tout moment contre les violations commises dans le sud du Liban ». En d’autres termes, les garanties offertes par les États-Unis permettent à Israël de mener des actions militaires préemptives sans être inquiété pour cela.

Entre novembre 2024 et novembre 2025, la Force intérimaire des Nations unies au Liban (FINUL) a recensé plus de dix mille violations du cessez-le-feu par Israël. La partie israélienne considère que l’engagement diplomatique avec l’État libanais demeure distinct de ses attaques militaires contre le Hezbollah, qu’elle qualifie de groupe terroriste. De surcroît, l’État libanais, qui n’a cessé d’appeler, sans succès, à l’action de la communauté internationale pour faire cesser les attaques quasi quotidiennes contre sa souveraineté et son intégrité territoriale, s’est vu imposer, sous la pression de Washington, un calendrier pour désarmer le Hezbollah, au risque de mettre en péril la stabilité interne, dans un contexte marqué par une grande fragilité de ses institutions.

Ainsi, l’armée libanaise est censée avoir achevé le démantèlement de toutes les infrastructures du Hezbollah et le désarmement total du groupe dans de zone située au sud du Litani, à environ 30 km de la frontière avec Israël ; mais la partie israélienne réclame désormais la mise en application de la phase deux, à savoir la restauration du monopole exclusif de l’État sur les armes. Toutefois, comme le rappellent les universitaires Joseph Daher, Sami Zoughaib et Sami Atallah dans une publication du 20 novembre dernier :

« […] La véritable souveraineté se transmet rarement par une simple signature. Elle repose sur trois fondements interdépendants : un monopole crédible de la force par l’État, des institutions fonctionnelles et solvables, et une légitimité suffisamment large pour lier les communautés à l’État. Le Liban manque de ces trois éléments. Au contraire, la coercition extérieure dicte la politique, transformant l’État d’acteur souverain en instrument. »

La Syrie dans le viseur

En Syrie, tout en poursuivant les négociations autour d’un accord de sécurité, Israël mène des actions qui fragilisent l’État syrien et favorisent la fragmentation du territoire.

Au lendemain de la chute du régime d’Assad – événement dans lequel Israël se félicite d’avoir joué un rôle majeur grâce à sa guerre d’attrition visant à affaiblir les groupes pro-iraniens –, l’aviation israélienne a conduit des frappes préemptives massives, estimant avoir détruit de 70 % à 80 % des capacités militaires syriennes. Entre décembre 2024 et juillet 2025, plus de 800 attaques aériennes israéliennes contre la Syrie auraient été dénombrées.

À ce jour, l’intransigeance israélienne en matière d’exigences sécuritaires continue de faire obstacle à la conclusion d’un accord avec la Syrie. Tel-Aviv, qui a élargi son occupation au Golan en s’emparant de 600 kilomètres carrés sur le territoire syrien, en violation de l’accord de désengagement de 1974, réclame le droit d’intervenir militairement dans le sud syrien et de conduire des frappes sous le prétexte de préserver sa sécurité et sa stabilité.

Le projet d’accord de sécurité, qui reporte la question de la restitution du Golan (occupé par Israël depuis 1967), comporte d’autres exigences drastiques comme l’élargissement de la zone tampon de deux kilomètres côté Syrie et la mise en place d’une zone démilitarisée dans le Sud, qui constitueraient un précédent dangereux. En dépit de sa volonté plusieurs fois réitérée de conclure un accord de sécurité pour apaiser les tensions avec Israël, le président syrien Ahmed al-Charaa se montre réticent à l’idée d’une zone tampon qui transformerait la région en un espace de danger « aux conséquences inconnues ».

Israël dispose déjà d’une totale liberté d’action en Syrie comme l’illustre parfaitement sa gestion de la province de Quneitra, où les habitants font face à des incursions quotidiennes, à des contrôles et arrestations arbitraires, à la confiscation de leurs logements et de leurs biens, sans que l’armée syrienne ne les protège.

Tout en adoptant une posture maximaliste dans les négociations, Israël cherche à exploiter les minorités druze et kurde comme vecteur de déstabilisation, renouant ainsi avec la stratégie de l’expert du ministère israélien des affaires étrangères Oded Yinon développée dans les années 1980. Yinon considérait le monde arabe comme un maillon faible de l’ordre international. Les États étaient « un château de cartes temporaire » construit par la France et le Royaume-Uni dans les années 1920, qui ont divisé arbitrairement la région en dix-neuf États, « tous composés de combinaisons de minorités et de groupes ethniques hostiles les uns aux autres ». Dès lors, selon lui, ces États étant artificiels, il convient de les démembrer et de recomposer des entités sur des bases confessionnelles.

Cette approche est prégnante chez certains membres du gouvernement Nétanyahou. L’actuel ministre des affaires étrangères Gideon Saar a co-écrit en octobre 2015 avec un colonel de l’armée israélienne un article intitulé « Farewell to Syria » dans lequel il affirmait :

« Toute stratégie élaborée dans le but de mettre fin à la guerre civile en Syrie et de façonner son avenir doit partir d’un postulat clair : la Syrie, effondrée et divisée, ne peut être reconstituée. Il est donc nécessaire de se concentrer sur l’identification d’alternatives pratiques à l’État syrien. […] Un règlement coordonné et ordonné visant à séparer les forces entre la majorité sunnite et les minorités vivant sur le sol syrien […] offre le meilleur potentiel de stabilité. […] Tout accord de paix en Syrie doit reposer sur la garantie de l’existence de ces communautés au sein d’entités étatiques qui leur sont propres. »

Aussitôt après sa nomination à la tête de la diplomatie israélienne, Gideon Saar a annoncé qu’Israël devait se tourner vers les Kurdes, les Druzes et les autres minorités en Syrie et au Liban. Israël a, d’un côté, cherché à instrumentaliser la question druze, comme on l’a vu lors des affrontements intercommunautaires de mai dernier quand les Israéliens, en invoquant la défense des minorités, ont lancé une vague de bombardements massifs en Syrie et continuent de se présenter comme les protecteurs de cette communauté.




À lire aussi :
Les violences inter-communautaires en Syrie et l’avenir de la transition


D’un autre côté, la partie israélienne a tenté de renforcer ses liens avec les Forces démocratiques syriennes (dominées par les Kurdes de la branche syrienne du PKK), engagées dans un processus d’unification pour placer les institutions civiles et militaires du nord-est de la Syrie (Rojava), sous le contrôle de l’État.

Après une interview accordée début décembre 2025 au Jerusalem Post par le commandant en chef des FDS, Mazloum Abdi, des révélations du Washington Post ont fait état des liens qu’entretiendraient les FDS avec Israël. Selon le quotidien américain, « des personnalités druzes liées aux services de sécurité israéliens ont acheminé des fonds vers des militants druzes à Soueïda via les FDS quelques mois avant la chute du régime d’Assad ».

Bien que les FDS démentent ces accusations – également nourries par différentes déclarations de Mazloum Abdi (« Si Israël peut empêcher les attaques contre nous et mettre fin au massacre de notre peuple, nous nous en réjouissons et nous lui en sommes reconnaissants ») –, les révélations du Washington Post renforcent l’argument de la Turquie selon lequel les FDS seraient inféodées à Israël, ce qui implique que leur intégration dans l’État syrien doit nécessairement entraîner leur désarmement et la dissolution de leur commandement.

Le mécontentement de la Turquie…

Depuis plusieurs mois, les actions israéliennes en Syrie heurtent les intérêts de la Turquie et suscitent des tensions croissantes avec Ankara. En effet, la Turquie, qui est l’un des principaux parrains d’Ahmed al-Charaa et qui a largement œuvré à sa normalisation, souhaite stabiliser un pays sur lequel elle entend exercer une forte influence.

L’accumulation des tensions a conduit Ankara à déployer des radars turcs à l’intérieur du territoire syrien, ce qui entraverait la liberté d’action d’Israël. La Turquie envisagerait également d’installer une base militaire.

De son côté, Israël a renforcé son partenariat sécuritaire et énergétique avec la Grèce et avec Chypre, opposées à la Turquie sur la question du zonage maritime en Méditerranée orientale. Dans un contexte où Athènes et Nicosie voient en Tel-Aviv un contrepoids aux ambitions de la Turquie, une hypothétique convergence entre Ankara et Téhéran pourrait se dessiner dans les semaines à venir.

Enfin, un autre signe supplémentaire de l’exacerbation des contradictions entre Israël et la Turquie est perceptible dans le refus israélien d’une participation turque à une « force de stabilisation internationale » à Gaza prévue dans le cadre du plan Trump pour la paix publié le 29 septembre 2025.

Ce plan ne constituerait, pour reprendre les termes d’une analyse récente publiée par le média Orient XXI, qu’une étape supplémentaire dans la réalisation du projet hégémonique israélien au Moyen-Orient « en rendant notamment obsolètes les frontières traditionnelles et en garantissant à Israël une liberté de mouvement pour frapper qui il veut, quand il veut et où il veut […] ». Il comporte plusieurs objectifs comme « exploiter davantage les fonds du Golfe pour financer le Conseil de la paix qui serait présidé par Donald Trump et préparer le plan de développement économique de Trump pour Gaza ; […] l’élimination de toute forme de résistance dans les territoires occupés ; la liquidation de la cause palestinienne et le déplacement forcé de la population ; […] normaliser la présence d’Israël dans la région et ses relations avec tous les pays arabes, en particulier l’Arabie saoudite ».

En offrant les mêmes garanties à Israël que dans le cadre libanais, les Américains consacreraient sa liberté d’action sur le territoire gazaoui aux côtés de la force de stabilisation internationale et lui permettraient donc de continuer à contrôler Gaza en évitant le coût d’une occupation permanente.

Par ailleurs, les États-Unis – qui superviseraient le Conseil de la paix et seraient donc en charge de la surveillance du comité de gouvernance temporaire de Gaza et du développement de la bande en coopération avec les pays du Golfe pour financer les projets et maintenir l’illusion d’une légitimité politique – pourraient également tenter, par ce biais, de renforcer les relations entre Israël et l’Arabie saoudite tout en enterrant la question palestinienne.

… et de l’Arabie saoudite

Toutefois, ce dernier pari ne tient pas compte de la déconnexion croissante des intérêts entre Tel-Aviv et Riyad. L’Arabie saoudite ne souscrit pas à l’approche israélienne de la « défense avancée » sous-tendue par une stratégie de restructuration du Moyen-Orient. Elle voit dans l’usage de sa supériorité militaire une menace pour ses propres intérêts et sa politique souveraine. Durant la guerre des douze jours contre l’Iran, Riyad s’est distanciée des actions israéliennes et s’est vigoureusement opposée à l’utilisation de son territoire et de son espace aérien par l’aviation américaine et israélienne pour frapper l’Iran.

Par ailleurs, en Syrie, elle converge avec la Turquie dans sa volonté de stabiliser le pays et veut exorciser le risque d’un effondrement qui sèmerait le chaos dans la région. Sur ce point, l’administration Trump est sur la même ligne que la Turquie et l’Arabie saoudite, tout en cherchant à offrir les meilleures garanties de sécurité possible à Israël, qui demeure étroitement tributaire de l’assistance financière, militaire des États-Unis, ainsi que de leur soutien diplomatique.

Terminons par ce constat du journaliste et écrivain américain Roger Cohen dans un article du New York Times le 30 novembre dernier après un séjour en Israël et au Liban : « Je n’ai trouvé que peu de signes indiquant que la puissance israélienne, telle qu’elle est actuellement déployée, permettra d’assurer un avenir plus pacifique à long terme pour Israël et la région. »

The Conversation

Lina Kennouche ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La « défense avancée » d’Israël au Proche-Orient – https://theconversation.com/la-defense-avancee-disrael-au-proche-orient-272629

Une « hypermédiatisation » de Trump au Canada ?

Source: The Conversation – in French – By Frédérick Bastien, Professeur titulaire, Université de Montréal

On s’interroge de plus en plus sur l’espace accordé au président des États-Unis Donald Trump dans les médias au Québec et au Canada. Dans une chronique à l’émission radiophonique Tout un matin le 26 septembre dernier, l’ancienne ministre Véronique Hivon exprimait d’ailleurs ses inquiétudes concernant le temps et les ressources accordés à la couverture de la politique américaine. Ses propos ont ensuite suscité le débat sur plusieurs tribunes médiatiques.

Dans la foulée, il est apparu que l’intérêt porté par la presse à la politique américaine excède possiblement la demande du public québécois et canadien, comme le suggèrent des données récemment publiées par les politologues Karine Prémont et Jean-François Daoust dans Options politiques.

Certains participants à ce débat ont dévoilé quelques données comparatives sur « le poids » de Donald Trump et de Mark Carney dans les médias canadiens. Toutefois, il nous paraît important de situer la couverture actuelle de la presse dans une perspective plus longue, par exemple en comparant la avec la première présidence de Donald Trump, ou avec celle plus récente de Joe Biden. Nous avons donc procédé à une brève analyse pour répondre à la question suivante : dans quelle mesure Trump est-il présent dans les médias canadiens ? Elle apporte des éléments de preuve à la thèse selon laquelle Trump est « hypermédiatisé » au Canada.

Coup d’œil méthodologique

Nous avons mobilisé une méthodologie quantitative en réalisant une recension de mots-clés à travers la banque de données « Eureka », à partir de l’abonnement de l’Université de Sherbrooke. Celui-ci donne accès aux contenus de la presse écrite et d’autres médias canadiens qui publient sur le Web, en français et en anglais.

Dans un premier temps, nous avons considéré la période de six mois suivant immédiatement l’élection de Mark Carney à titre de premier ministre du Canada, soit du 28 avril au 28 octobre 2025. Puis, à rebours, nous avons pris en compte la même période de six mois pour les années où ni le président américain ni le premier ministre canadien ne se trouvaient formellement en campagne électorale.

Chaque fois, nous avons relevé le nombre d’articles répertoriés par Eureka contenant les mots-clés « Joe Biden », « Mark Carney », « Justin Trudeau » ou « Donald Trump », selon les dirigeants en place.




À lire aussi :
« C’est un malade ! » Voici ce que l’on perd à pathologiser la politique


Des résultats (presque) sans ambiguïté

Les résultats obtenus sur Eureka démontrent de façon claire et sans équivoque une véritable domination de Donald Trump sur le plan de la présence médiatique au Canada, particulièrement lorsque l’on combine les sources francophones et anglophones.

Comme on le constate au tableau 1 (section A), on relève dans les médias en anglais et en français d’avril à octobre 2025 un peu plus de 155 000 textes pour « Mark Carney » alors que la référence à « Donald Trump » revient dans plus de 548 000 articles. C’est 3,5 fois plus de textes que ceux contenant le nom du premier ministre canadien.

Cette forte médiatisation n’est pas une première : on observait plus de quatre fois plus de textes contenant « Donald Trump » que « Justin Trudeau » durant la même période en 2017 et 2018. En revanche, en 2022 et 2023, la référence au président américain alors en poste « Joe Biden » apparaissait dans plus de textes que « Justin Trudeau », mais dans de moins grandes proportions (près de 1,9 fois en 2022 et 1,5 fois en 2023).

Du côté des sources exclusivement francophones (voir section B dans le tableau 1), Donald Trump demeure visiblement plus médiatisé que les premiers ministres Trudeau et Carney, mais dans des proportions plus faibles (1,4 fois plus en 2017, 1,5 fois plus en 2018 et 1,8 fois plus en 2025).




À lire aussi :
Raz-de-marée démocrate dans les villes américaines : un avertissement pour Trump ?


Si les références à Donald Trump sont moins importantes, elles restent considérables lorsqu’on les compare à celles de Joe Biden. De fait, pour les années 2022 et 2023, c’est Justin Trudeau qui obtient le plus grand nombre d’occurrences (1,5 fois plus en 2022 et 2,1 fois plus en 2023). Un constat qui remet en perspective la présence de la présidence américaine, celle de Joe Biden en particulier, dans les médias francophones canadiens.

De toute évidence, un facteur « Donald Trump » joue un rôle dans le fait que, dans l’espace médiatique francophone au Canada, on traite davantage du président des États-Unis. Ainsi, contrairement à ce que l’on observe pour Joe Biden, les références à Trump dépassent celles accordées au premier ministre alors en fonction, Justin Trudeau.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Comment interpréter ces résultats ?

Mais alors, comment interpréter cette domination en termes de références à Donald Trump dans l’espace médiatique canadien ? Pourquoi, tant pour les médias francophones qu’anglophones au pays, les mentions au 47e président des États-Unis sont-elles plus nombreuses que celles des premiers ministres Trudeau et Carney ?

Nous proposons deux explications à cette situation.

La première est d’origine politique : on peut penser que les médias estiment qu’il importe d’accorder une plus grande attention à la présidence actuelle parce qu’elle pose des défis exceptionnels, par exemple les politiques sur les tarifs douaniers, les menaces d’annexion du Canada et, plus largement, les efforts qui tendent vers le déploiement d’un régime politique plus autoritaire.

La seconde est d’origine médiatique : par sa forte personnalisation du pouvoir et son recours fréquent à des procédés de dramatisation ou de spectacularisation, la présidence de Donald Trump répond très bien à certains critères de sélection de la nouvelle qui ont moins à voir avec la logique politique elle-même.

Dans un cas comme dans l’autre, il y a lieu de s’interroger sur les mérites et les inconvénients de cette « hypermédiatisation » de Donald Trump qui a bel et bien lieu dans notre espace public.

La Conversation Canada

Frédérick Bastien a reçu des financements du Conseil de recherche en sciences humaines (CRSH) du Canada et du Fonds de recherche du Québec – Société et culture (FRQ-SC).

Emmanuel Choquette a reçu des financements du Fonds de recherche du Québec – Société et culture (FRQ-SC) et de la Défense nationale canadienne (Programme de subventions de coopération ciblées)

ref. Une « hypermédiatisation » de Trump au Canada ? – https://theconversation.com/une-hypermediatisation-de-trump-au-canada-270608