El océano se sofoca

Source: The Conversation – (in Spanish) – By Antonio Figueras Huerta, Profesor de investigación del Consejo Superior de Investigaciones Científicas, Instituto de Investigaciones Marinas (IIM-CSIC)

Las olas de calor marinas, períodos de calentamiento extremo del océano que duran días o meses, han duplicado su frecuencia y duración desde 1982. Estos eventos invisibles están remodelando los ecosistemas marinos de todo el mundo. Sus efectos ya se sienten desde la Gran Barrera de Coral hasta los bancos marisqueros del noroeste de España.

Ocurren cuando las temperaturas del agua del mar superan el percentil 90 de los registros históricos durante al menos cinco días consecutivos. Lo que hace que estos eventos sean particularmente peligrosos es su naturaleza compleja: cuando las temperaturas del mar aumentan, los niveles de oxígeno bajan, creando zonas muertas donde la vida marina lucha por sobrevivir.

Las cifras son escalofriantes. Si las temperaturas globales aumentan 3,5° C hacia 2100 –nuestra trayectoria actual–, estas olas de calor podrían ser 41 veces más frecuentes que en tiempos preindustriales. Algunas podrían persistir durante más de 100 días, con anomalías térmicas que superarían los 2,5° C por encima de lo normal.

Ola de calor marina denominada
Laura Naranjo / NASA.

Estragos en la industria pesquera

Las consecuencias ya son visibles. La ola de calor marina del Pacífico de 2013-2016, conocida como The Blob, mató 100 millones de larvas de bacalao y 4 millones de aves marinas.

Otra ola de calor, en 2016, blanqueó el 30 % de los corales de la Gran Barrera de Coral en un solo evento. En 2019-2020, otra causó en el Pacífico una disminución del 70 % en las poblaciones de cangrejo, con lo que afectó gravemente a la industria pesquera.

Calor unido a bajo oxígeno

Quizás lo más preocupante es la combinación mortal de calor y oxígeno escaso –hipoxia–. En 2017, un evento de baja concentración de oxígeno en el golfo de Omán creó una zona sin vida del tamaño de Florida.

La evidencia científica muestra que, cada vez más con más frecuencia, las olas de calor marinas y los eventos de bajo oxígeno ocurren juntos, lo que amplifica sus efectos negativos.

Mediterráneo, una trampa de calor

Una investigación reciente reveló que, entre 2015 y 2019, el Mediterráneo experimentó cinco años consecutivos de eventos de mortalidad masiva que afectaron miles de kilómetros de costa desde la superficie hasta 45 metros de profundidad.

Los datos de este estudio señalan que las olas de calor marinas afectaron más del 90 % de la superficie mediterránea y alcanzaron temperaturas que superaron los 26 °C. En total, 50 taxones (grupos biológicos) de 8 filos diferentes fueron afectados por estos eventos de mortalidad, desde corales hasta esponjas y otros organismos bentónicos.

En concreto, el verano de 2022 marcó un punto de inflexión cuando se registró uno de los eventos de mortalidad masiva más intensos jamás documentados en el Mediterráneo noroccidental. Por primera vez, las profundidades de 25-30 metros estuvieron expuestas a temperaturas superiores a 25° C, considerado un umbral potencialmente letal para muchas especies mediterráneas.

Mariscando en O Grove, Pontevedra.
Wikimedia Commons., CC BY

Los estuarios cambiantes de Galicia

También lleva años sucediendo en las partes más internas de las rías de Galicia, el corazón de la industria marisquera de España. La ría de Arousa, epicentro del marisqueo gallego, está experimentando olas de calor marinas estuarinas (EMHW, por sus siglas en inglés) que amenazan tanto el equilibrio ecológico como el sustento de miles de familias.

La investigación del grupo EPhysLab identificó condiciones de calentamiento sin precedentes en 2023. Durante este año extremo, el océano Atlántico Norte sufrió condiciones casi permanentes de ola de calor marina, afectando también al sistema de afloramiento canario, que incluye las costas gallegas.

El estudio reveló que, a excepción de febrero, todos los meses de 2023 mostraron una franja distintiva de temperaturas superficiales máximas en una gran área del océano Atlántico Norte, desde 30°W hasta las regiones costeras. Los análisis muestran que más del 80 % de los días fueron considerados como calurosos en zonas oceánicas.

Pero el calentamiento no es solo resultado de temperaturas cálidas del aire. Las condiciones extremas fueron impulsadas por anomalías térmicas oceánicas, con temperaturas superficiales que superaron 1,5° C por encima del promedio en amplias regiones del área de estudio.

La almeja fina (Ruditapes decussatus), muy apreciada en el mercado por su sabor, es una de las especies afectadas por las olas de calor en las rías gallegas.
Cwmhiraeth / Wikimedia Commons., CC BY

El coste humano

El exceso de calor afecta directamente a las especies clave del marisco gallego: almejas (Ruditapes decussatus y R. philippinarum), berberechos (Cerastoderma edule) y almejas babosas (Venerupis pullastra). Todos estos bivalvos viven enterrados en sedimentos blandos en zonas intermareales y someras, y su bienestar depende de que las temperaturas se mantengan en un rango concreto.

Cuando el mar se calienta más allá de su tolerancia, todo se complica. Su metabolismo se acelera, su sistema inmune no responde, la reproducción sufre y la mortalidad aumenta. Las proyecciones usando el escenario climático más pesimista sugieren que las partes interiores y poco profundas de los estuarios se volverán demasiado cálidas para estas especies.

También afectará a los humanos. Más de 7 000 personas, en su mayoría mujeres mariscadoras, dependen del marisqueo intermareal. Si estas zonas desaparecen como áreas productivas, muchas tendrán que abandonar su actividad tradicional. Trasladar los bancos marisqueros a zonas más profundas no es sencillo: cambian las condiciones, cambian las herramientas, cambian los permisos, cambian los costes y muchas especies no sobrevivirían.

Carrera contra reloj

Las olas de calor marinas no solo ocurren en verano. Los datos muestran que octubre, diciembre y febrero son los meses con más días de EMHW. Estos cambios térmicos fuera de temporada alteran los ciclos reproductivos de los bivalvos.

Las especies dependen de señales de temperatura para liberar los gametos que darán lugar a las larvas, comenzando el ciclo. Si estas aparecen cuando no hay suficiente alimento, no hay reclutamiento para las poblaciones, la producción es menor y la recuperación puede ser muy lenta.

Basándose en proyecciones científicas recientes, las condiciones térmicas dejarán de ser adecuadas para las especies de bivalvos en áreas poco profundas e interiores entre 2040 y 2055, si no se reducen las emisiones de gases de efecto invernadero. A corto plazo (2025-2035), aumentarán los episodios extremos, lo que afectará a su reproducción y supervivencia.

Una ventana crítica

A mediados de siglo (2035-2050), muchas zonas marisqueras actuales podrían volverse térmicamente inviables. Pero no es un caso aislado. La historia del marisco gallego ilustra una verdad global: las olas de calor marinas no son solo un problema ambiental, sino una crisis socioeconómica que afecta a comunidades de todo el mundo. Desde los ostricultores del Pacífico noroeste hasta los buceadores de oreja de mar de Australia, los medios de vida marinos tradicionales están bajo una presión sin precedentes.

El océano se acerca a un punto crítico. Sin intervención, las olas de calor marinas y la desoxigenación empujarán a los ecosistemas más allá de sus límites de resistencia, causando cambios irreversibles.

La ciencia ha cumplido su parte: identificar el problema y señalar soluciones. Ahora necesitamos voluntad política, recursos y compromiso. Porque esto no se trata solo de mariscos o arrecifes de coral. Se trata del futuro de nuestros océanos y de todos los que dependen de ellos.

The Conversation

Antonio Figueras Huerta no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El océano se sofoca – https://theconversation.com/el-oceano-se-sofoca-250429

El mito del talento individual frente a la realidad del talento colectivo

Source: The Conversation – (in Spanish) – By Pablo Atela, Ph.D., Profesor Doctor Deusto Business School, Universidad de Deusto

fizkes/Shutterstock

En el siglo XXI las organizaciones operan en un entorno de rápidos cambios y alta competitividad, lo que exige una adaptación constante para sobrevivir. En este escenario, las personas y su talento se han convertido en el factor fundamental de diferenciación.

El talento individual

El concepto de talento ha sido estudiado desde diversas ciencias como la psicología, la economía y la sociología, generando un gran interés. Etimológicamente, la palabra talento deriva del griego tálanton y del latín talentum, que originalmente se referían a una medida de peso o una moneda, y evolucionaron para significar inteligencia o dotes intelectuales sobresalientes.

La Real Academia Española (RAE) define talento asimilándolo a inteligencia (“capacidad de entender”) y aptitud (“capacidad para el desempeño de algo”). En general, se refiere a una habilidad o desempeño excepcional en una dimensión humana específica (intelectual, emocional, social, física, artística), implicando que una persona tiene talento para algo en particular, no para todo.

Inteligencia y otros factores

A menudo se ha relacionado el talento con la inteligencia, siendo esta última una condición necesaria, pero no suficiente, para un desempeño sobresaliente. Factores como la personalidad, el ambiente, la motivación y el contexto sociocultural también son cruciales.

Algunos autores sugieren que no es una cualidad puramente innata, sino que se desarrolla a través del trabajo intenso, la motivación, las herramientas del conocimiento y la generación de hábitos (las “10 000 horas” de práctica para alcanzar la maestría).

Además, el talento se conecta con la creatividad, siendo esta una precondición o una expresión del talento: el resultado de la interacción exitosa entre habilidades superiores al promedio, creatividad y compromiso con la tarea.

En la práctica, el talento individual se compone de tres variables: capacidades (conocimientos, habilidades y actitudes), compromiso y acción (velocidad o innovación constante).

El talento colectivo

Aunque la literatura sobre talento individual es vasta, surge la pregunta sobre la contribución del talento colectivo, sugiriendo que “el todo es más que la suma de las partes”.

Este segundo concepto está mucho menos desarrollado en la investigación académica, a pesar de ser imperativo para las organizaciones modernas. Sin embargo, se puede asimilar a otros conceptos relacionados que permiten avanzar en su comprensión como la inteligencia colectiva, el trabajo en equipo y el aprendizaje organizacional.

Inteligencia colectiva

Se la define como una forma de inteligencia que emerge de la cooperación de varias personas para resolver problemas y tomar decisiones. La inteligencia colectiva no depende del promedio de los coeficientes intelectuales individuales, sino de la inteligencia emocional (para la que la armonía social es el factor clave).

Dicha armonía social implica la capacidad de crear unidad en el equipo, permitiendo que todos aporten lo mejor de su talento para el bien común. Factores como el consenso, la empatía, la cooperación, la confianza y la gestión de conflictos facilitan su incremento.

Equipos, ‘comunitazgo’ y co-creación

El talento colectivo se impulsa mediante el trabajo en equipo. Este es crucial para lograr mejores resultados y decisiones al requerir múltiples habilidades y el intercambio de conocimientos, incrementando la satisfacción y creatividad de los empleados.

A diferencia del liderazgo, el comunitazgo centra el foco en el desarrollo de los equipos y la construcción de comunidades. Así, actúa como “pegamento social” que supera el individualismo y promueve la lealtad y el compromiso mutuo entre sus miembros, como lo demuestran organizaciones exitosas como Pixar.

Finalmente, en la era postindustrial, la co-creación con clientes y empleados es esencial para la generación de valor y dar sentido al trabajo, pues exige empatía, trabajo en equipo y cooperación, alineándose directamente con la idea de talento colectivo.

Aprendizaje organizacional

El proceso de crear, retener, transferir y utilizar el conocimiento dentro de una organización se conoce como “aprendizaje organizacional”. Este concepto surge a mediados de los 60 del siglo pasado y está fuertemente interrelacionado con el talento colectivo. Los equipos con alta inteligencia colectiva demuestran mayores habilidades y capacidad de aprendizaje colectivo.

La relación entre equipos multidisciplinares, gestión del talento y aprendizaje organizacional forma un triángulo donde cada variable se alimenta de las otras. El conocimiento se amplifica y difunde de los individuos a toda la organización a través de los equipos, creando un bucle de refuerzo positivo que fortalece la confianza, el compromiso y las relaciones, acelerando el aprendizaje.

Del talento individual al colectivo: una transición necesaria

La mayoría de los modelos de gestión del talento se centran solo en el individuo, asumiendo que la suma de talentos individuales produce el talento colectivo. Sin embargo, equipos bien cohesionados y enfocados en ese talento grupal pueden superar a la suma de individuos altamente talentosos. Este es un proceso inherentemente social que, además, reduce el impacto en la organización cuando personas especialmente talentosas la abandonan.

Para lograr la transición es fundamental:

1.- Una estructura organizacional que permita a los miembros la libertad para desarrollar sus habilidades.

2.- Una cultura que empodere a las personas para mejorar sus comunidades, sin esperar directrices de un líder.

3.- Reconocer el papel crucial de los mandos intermedios, quienes a menudo conocen mejor la organización, comparten sus valores y actúan como catalizadores del compromiso y el flujo del talento colectivo.

4.- Eliminar prácticas que socavan la comunidad, como tratar a los empleados como recursos, despidos masivos injustificados o bonificaciones excesivas para directivos.

5.- Promover activamente la confianza, el compromiso y la colaboración espontánea para la sostenibilidad financiera y social a largo plazo.

Un imprescindible cambio de paradigma

Aunque el estudio del talento individual ha sido predominante, el talento colectivo es la clave para abordar los problemas cada vez más complejos del siglo XXI, muchos de los cuales no pueden ser resueltos desde el individuo aislado.

A pesar de que muchas organizaciones reconocen la importancia de los equipos, a menudo sus modelos de desarrollo de personas siguen anclados en un paradigma puramente individualista. Este énfasis excesivo en las competencias individuales está desfasado, ya que si bien estas son importantes, deben ser vistas en el contexto de lo que un equipo requiere para un desempeño óptimo.

El verdadero desafío y la gran oportunidad para las organizaciones del siglo XXI radica en cambiar sus modelos mentales y de gestión hacia lógicas sistémicas, holísticas y colectivas, que complementen y mejoren las estrictamente individuales.

Al enfocar el desarrollo de las personas en aquello en lo que son más competentes y disfrutan, y fomentar la complementariedad de habilidades, la armonía social, la interdisciplinariedad, la empatía, el compromiso y la confianza, se logra un potencial liberador enorme que impulsa el desarrollo y la innovación en las organizaciones.

The Conversation

Pablo Atela, Ph.D. ha recibido fondos para investigación y consultoría provenientes de varios organismos públicos y privados de España, Mexico, Chile y Colombia, y es consultor en Shackleton Innovation.

Fernando Díez Ruiz no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. El mito del talento individual frente a la realidad del talento colectivo – https://theconversation.com/el-mito-del-talento-individual-frente-a-la-realidad-del-talento-colectivo-257713

Los museos abrazan el arte femenino: ¿una tendencia de mercado efímera?

Source: The Conversation – (in Spanish) – By Álvaro Pascual Chenel, Profesor de Historia del Arte, Universidad de Valladolid

Imagen de la exposición ‘Luisa Roldán. Escultora real’ en el Museo Nacional de Escultura. Ministerio de Cultura de España

En poco más de tres meses, 38 462 visitantes acudieron a ver Luisa Roldán. Escultora real, la última exposición estrella del Museo Nacional de Escultura de Valladolid (España). Es la segunda exhibición temporal con mayor número de asistentes de su historia, solo por detrás de Almacén. El lugar de los invisibles (51 707 visitantes), cuya duración fue más extensa (unos 12 meses) al interrumpirse por la pandemia de covid y reabrirse después.

Durante unos meses, la capital del Pisuerga ha sido centro de turismo cultural. Más que una simple exposición dedicada a una artista barroca pionera en su tiempo, se ha concebido como un evento rodeado de actividades complementarias.

Con este planteamiento se acerca el arte al público general, mostrando que avanza al ritmo de la sociedad actual. La iniciativa sigue la senda de otros museos públicos, como el Museo del Prado con sus itinerarios de “El Prado en Femenino”.




Leer más:
¿Cómo sería el Museo del Prado sin sus promotoras artísticas?


¿Es una moda aislada? Nada es casual. De un tiempo a esta parte, vivimos un cambio de tendencia en las adquisiciones de bienes culturales y artísticos, en particular aquellas de organismos públicos como el Ministerio de Cultura.

El Estado busca impulsar el reparto de obras en museos y archivos de distintos territorios de España y, especialmente, visibilizar la obra de mujeres artistas. Es un compromiso directo con los Objetivos de Desarrollo Sostenible (ODS) de las Naciones Unidas, tanto el de “Reducción de las desigualdades” como el de “Igualdad de género”. El arte, con su transferencia a la sociedad, es un medio ideal para ello.

Compromiso con los ODS: ¿por qué es tan prioritario ahora?

El tsunami repentino de la pandemia covid-19 sensibilizó sobre la importancia de la resiliencia en las organizaciones y personas. La resiliencia, capacidad en auge, ayuda a adaptarse ágilmente a los cambios inesperados de nuestro alrededor.

Para fortalecerla, las organizaciones se agarran a ese compromiso con los ODS. Solemos verlo bajo el nombre de “estrategias de sostenibilidad” o su acrónimo inglés ESG (environmental, social and governance), que hace referencia a los tres pilares que abarca: medioambiente, sociedad y buen gobierno.

Numerosos estudios científicos encuentran que las organizaciones con mejores calificaciones de sostenibilidad sufren menores pérdidas en crisis como la financiera o la del covid-19. Entre el variado abanico de prácticas ESG, potenciar la igualdad de género crea valor, gracias a que los grandes inversores que mueven los mercados muestran un mayor aprecio por estas cualidades no monetarias.


¿Quiere recibir más artículos como este? Suscríbase a Suplemento Cultural y reciba la actualidad cultural y una selección de los mejores artículos de historia, literatura, cine, arte o música, seleccionados por nuestra editora de Cultura Claudia Lorenzo.


El mercado de arte femenino cotiza al alza

El mercado del arte ha sido caldo de cultivo para que los sesgos o las preferencias personales de sus participantes, según la cultura dominante en cada época, se reflejen en los precios de las transacciones. Esto se ve favorecido por algunas características peculiares de este mercado, como que su valor económico viene determinado por la demanda (y no por la oferta) o que los artistas no juegan un papel activo.

Tradicionalmente, las investigaciones han mostrado que las obras de arte elaboradas por mujeres alcanzaban menores precios en las subastas en comparación a obras similares realizadas por hombres. Ese “descuento” era más pronunciado en países con mayor desigualdad de género.

Con la implementación de las estrategias sostenibles, la tendencia está dando un giro de 180 grados. Más que un cambio de moda con caducidad, esta revalorización del arte en femenino es una herramienta para romper “techos de cristal” y visibilizar el nuevo papel de la mujer en la sociedad actual.

Paradigma de esta tendencia: la Roldana y el resurgir de su obra

El Museo Nacional de Escultura realizó adquisiciones culturales en el año 2024 por casi 1 518 000 €. De este total, alrededor de un 45 % correspondió a dos obras de Luisa Roldán: El éxtasis de María Magdalena (330 000 €) y cuatro figuras de Nacimiento (350 000 €).

Tabla que indica las adquisiciones de bienes culturales en el año 2024.

Ministerio de Cultura

Luisa Roldán, “la Roldana”, constituye un excelente ejemplo de este resurgir de la obra de mujeres artistas. Hija del afamado escultor sevillano Pedro Roldán, su carrera artística se consolidó entre finales de la segunda mitad del siglo XVII y principios del XVIII. Alcanzó uno de los mayores honores al que podía aspirar un artista en la España del Barroco, al ser nombrada en 1692 escultora de cámara de Carlos II. Ninguna mujer había conseguido acceder antes a este puesto, que siguió desempeñando bajo el reinado Felipe V hasta su muerte en 1706. Ello le dotó de una posición de preeminencia, fama y prestigio.

Escultura de un ángel venciendo a un demonio en el suelo.
El arcángel san Miguel venciendo al demonio, de Luisa Roldán.
Roberto Muñoz Martín. Galería de las Colecciones Reales, Patrimonio Nacional, 10034690.

Además de algunas importantísimas obras en madera –como el espectacular San Miguel Arcángel que ha sido recientemente restaurado y puede admirarse hoy en la Galería de las Colecciones Reales–, en la corte destacó especialmente por su fecunda actividad en grupos de barro cocido. En este material modeló un considerable número de obras religiosas de pequeño tamaño y carácter devocional que tuvieron una enorme aceptación y demanda en su momento

En la actualidad, el interés artístico y coleccionista por su obra se ha expandido a nivel internacional. Esto ha ampliado considerablemente el corpus de sus obras conocidas. Muy recientemente, importantes museos nacionales e internacionales se han hecho eco de este auge, adquiriendo en el mercado de arte anticuario destacadas piezas inéditas. Es el caso, por ejemplo, del Museo Nacional de Escultura, el Museo de Bellas Artes de Sevilla, el Metropolitan Museum of Art de Nueva York, el Detroit Institute of Art, la National Gallery of Art de Washington, el Philadelphia Museum o Art o el Los Angeles County Museum of Art.

Las políticas de desarrollo sostenible inundan cada vez más parcelas de nuestra vida cotidiana. Entre el boom de métricas cuantitativas, la iconografía del arte parece convertirse en un medio que refleja esos cambios y sirve de estímulo para integrarlos en la sociedad. Las nuevas tendencias en el mercado artístico y las adquisiciones de los museos públicos lo han situado en un primer plano hacia el compromiso con los ODS. Parece vislumbrarse una prima de valor por sostenibilidad en este mercado.


Los autores agradecen la colaboración del Museo Nacional de Escultura de Valladolid, especialmente a Óscar Fernández Fernández (Departamento de Comunicación y Relaciones Institucionales) y Eva García de la Iglesia (Programas Públicos) del Museo, por el suministro de datos de registro de visitas.

The Conversation

Álvaro Pascual Chenel pertenece al Grupo de Investigación Reconocido de la Universidad de Valladolid y Unidad de Investigación Consolidada de la Junta de Castilla y León, Arte, poder y sociedad en la Edad Moderna. Este trabajo forma parte del proyecto PID2021-124832NB-I00, financiado por MICIU/AEI/10.13039/501100011033/FEDER, UE; y del proyecto PID2023-148329NB-I00, financiado por MCIN/AEI/10.13039/501100011033/FEDER/UE.

Pilar Velasco pertenece al Grupo de Investigación Reconocido en “Finanzas y Contabilidad” de la Universidad de Valladolid, y a la Unidad de Investigación Consolidada nº 260 de la Junta de Castilla y León. Este trabajo forma parte del proyecto PID2023-150140NA-I00, financiado por MCIU/AEI/10.13039/501100011033/FEDER, UE.

ref. Los museos abrazan el arte femenino: ¿una tendencia de mercado efímera? – https://theconversation.com/los-museos-abrazan-el-arte-femenino-una-tendencia-de-mercado-efimera-251083

Could new pipelines shield Canada from U.S. tariffs? The answer is complicated

Source: The Conversation – Canada – By Torsten Jaccard, Assistant Professor of Economics, University of British Columbia

It should come as no surprise that United States President Donald Trump’s tariff threats have renewed interest in building pipelines that don’t rely on access to the American market. Almost four million barrels of crude oil cross the Canada-U.S. border each day, generating revenue of more than $100 billion per year — a quarter of Alberta’s GDP.

A February survey by the Angus Reid Institute found that half of Canadians believe the federal government isn’t doing enough to expand pipeline capacity. Meanwhile, two-thirds said they would back reviving the Energy East project — a cancelled pipeline that would have transported oil from western Canada to New Brunswick and Québec.

But would new pipelines truly insulate Canada from the threat of U.S. tariffs? And how much new pipeline capacity is necessary? Despite the apparent urgency of approving new infrastructure projects, these questions remain surprisingly unexplored.

In a recent paper I co-authored with researcher Jotham Peters, which is currently under revision, we applied formal economic modelling techniques to parse through the costs and benefits of new pipelines, and in particular to understand the role of American tariffs in shaping these costs and benefits.

How tariffs could hit Canadian oil producers

In a worst-case scenario where the U.S. follows through on its threat of a 10 per cent tariff on Canadian oil exports, Canadian producers could lose as much as $14 billion in annual revenue — roughly a 10 per cent decrease.

Simply put, Canada’s existing pipeline network severely limits access to markets other than the U.S., and as a consequence oil producers bear the full brunt of American tariffs.

But what if Northern Gateway and Energy East — two previously cancelled pipelines that would have brought Canadian oil to tidewater — had been built?

If Northern Gateway and Energy East were operational in 2025, Canada would be more resilient, but not completely immune, to U.S. tariffs. Instead of a $14 billion loss, tariffs would reduce annual revenue by $9 billion.

Ultimately, the combined capacity of Northern Gateway and Energy East, which would be 1.625 million barrels per day, pales in comparison to the four million barrels per day of existing pipeline capacity connecting Canadian producers with American refineries.

Closing this gap would require an expansion of east-west pipeline capacity far beyond the cancelled pipelines of the last decade.

The economic case for pipelines

So have the recent shifts in U.S. trade policy fundamentally altered the economic case in favour of new east-west pipelines? As with most economic analyses, the answer is complicated.

On the one hand, any progress that mitigates the significant cost of U.S. tariffs are likely dollars well spent. Building new pipelines strengthens the bargaining power of Canadian producers, which carries an additional benefit of potentially increasing the return on each barrel sold to our southern neighbour.

There’s also a long-term capacity issue. Existing pipelines may reach their limit by 2035. In the absence of new pipelines, any new production after 2035 would either need to be transported by rail at a higher cost, or left in the ground.

On the other hand, if the U.S. never follows through on tariffs on energy exports — or if future administrations do not share Trump’s affinity for chaotic trade policy — Canada could end up right back where it started when these projects were cancelled.

All pipelines carry some economic benefit, but such benefits were not enough in 2016 and 2017 to warrant the construction of the Northern Gateway and Energy East pipelines.

Inflated construction costs threaten benefits

The elephant in the room is whether a significant expansion in pipeline capacity could realistically be achieved at reasonable cost. Recent evidence suggests it could be a challenge.

The Trans Mountain expansion project, for instance, was initially estimated to cost $5.4 billion in 2013. By the time it was completed in 2024, the final price tag had ballooned to $34 billion — a cost overrun of 380 per cent when accounting for inflation.

The Coastal GasLink pipeline, which transports natural gas, faced similar issues. It was initially projected to cost $4 billion in 2012 and was completed in 2023 at a final cost of $14.5 billion, with an inflation-adjusted overrun of 180 per cent.

While some of these costs were circumstantial — a major flood affected Trans Mountain, for example — increased efficiency in pipeline construction is necessary for the economic benefits of new pipelines to be realized, regardless of U.S. trade policy.

Beyond economics costs

While our research explores the economic impact of new pipelines in the face of U.S. tariffs, we acknowledge there are other issues that need to be considered.

Chief among them is ensuring Canada meets its constitutional obligation to consult First Nations on decisions, like natural resources projects, that affect their communities and territories. Although this lies beyond our area of expertise, it will inevitably be an important element of consideration for any new pipeline developments.




Read more:
The complicated history of building pipelines in Canada


The environmental impacts of new pipelines are another key concern. These impacts range from local exposure to oil spills to upstream greenhouse gas emissions associated with oil production. While these varying and complex impacts are also beyond the scope of our current work, future research should focus on quantifying the potential environmental impacts of new pipelines.

Our research cannot say whether any new pipeline project is good, bad or in Canada’s national interest. But we can help Canadians reach an informed decision about how changes in U.S. trade policy may or may not alter the economic case for new pipelines in this country.

While Canada would undoubtedly be in a stronger position to respond to U.S. tariffs were Northern Gateway and Energy East operational in 2025, it would still find itself significantly exposed to Trump’s tariff threats.

Fully removing this exposure would require not one but seven pipelines equivalent to Northern Gateway. Whether that’s a goal worth pursuing is a broader question — one we hope our research can help Canadians and policymakers reach on their own.

The Conversation

Torsten Jaccard receives funding from the Social Sciences and Humanities Research Council of Canada.

ref. Could new pipelines shield Canada from U.S. tariffs? The answer is complicated – https://theconversation.com/could-new-pipelines-shield-canada-from-u-s-tariffs-the-answer-is-complicated-259660

5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine

Source: The Conversation – in French – By Aurélie Manin, Chargée de recherche en Archéologie, Archéozoologie et Paléogénomique, Centre national de la recherche scientifique (CNRS)

On retrouve la trace d’un lien direct avec les chiens du Mexique ancien uniquement chez les chihuahuas. Nic Berlin / Unsplash, CC BY

Une très récente étude dévoile la grande histoire des chiens en Amérique latine. En mettant au jour de nombreux fossiles, les scientifiques ont montré une arrivée très tardive sur ce continent par rapport aux autres et une évolution bouleversée par la colonisation européenne.


Parmi tous les animaux élevés et domestiqués par l’humain, le chien est celui avec lequel nous partageons la plus longue relation, avec des indices de soins et d’inhumation volontaire remontant au moins à 14 000 ans. Mais s’il existe un lien avéré entre les sociétés de chasseurs-cueilleurs du début de l’Holocène, il y a moins de 12 000 ans, et les chiens dans de nombreuses régions du monde, il en est d’autres où ils arrivent bien plus tard.

C’est le cas notamment de l’Amérique centrale et de l’Amérique du Sud, où les plus anciens squelettes de chiens ne datent que d’il y a 5000 à 5500 ans. Or on trouve déjà des chiens en Amérique du Nord il y a près de 10 000 ans en Alaska et plus de 8000 ans dans l’Illinois. Pourquoi observe-t-on un tel décalage ? C’est pour aborder cette question que notre équipe internationale et interdisciplinaire, rassemblant des archéozoologues, des archéologues et des paléogénéticiens, a rassemblé des restes de chiens archéologiques pour analyser les lignées représentées et leurs dynamiques. Nous venons de publier nos résultats dans la revue scientifique Proceedings of the Royal Society B : Biological Science.

Nous avons mis en évidence une diversification génétique des chiens il y a environ 7000 à 5000 ans, qui correspond au développement de l’agriculture et aux transferts de plantes entre les différentes régions, en particulier le maïs.

D’autre part, nos travaux montrent que les lignées présentes aujourd’hui en Amérique sont pour l’essentiel très différentes de celles qui étaient présentes avant la colonisation européenne, il y a 500 ans. Ces dernières descendent de chiens venant d’Europe, d’Asie ou d’Afrique, apportés par le commerce trans-océanique. Ce n’est que chez certains chihuahuas que l’on retrouve la trace d’un lien direct avec les chiens du Mexique ancien.

Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !

Une quarantaine de sites archéologiques analysés

Avec le développement des analyses paléogénétiques (l’analyse de l’ADN ancien), aborder les questionnements archéologiques demande d’associer des chercheurs aux profils variés et c’est ce que notre projet de recherche a permis. Pour étudier l’origine et les dynamiques des populations de chiens en Amérique centrale et du Sud, il nous a fallu identifier et rassembler des squelettes issus de 44 sites archéologiques, qui s’étendent du centre du Mexique au nord de l’Argentine.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou.
Nicolas Goepfert, Fourni par l’auteur

Nous avons travaillé sur des fouilles récentes, nous permettant d’avoir un maximum d’informations sur les contextes d’où venaient les chiens, mais aussi sur la réanalyse de collections anciennes dans lesquelles des restes de canidés avaient été trouvés. Confirmer l’identification de ces chiens a également été un défi : en Amérique du Sud en particulier, il existe de nombreux canidés dont la taille et la morphologie sont proches de celles du chien : renards, loup à crinière, chien des buissons… Il s’agit d’ailleurs d’animaux qui ont pu être proches des groupes humains, jusqu’à être inhumés. C’est donc l’utilisation d’analyses morphologiques fines qui nous ont permis de sélectionner les os et les dents analysés. Nous avons extrait l’ADN de 123 chiens (dont les poils de 12 chiens modernes, pour nous servir de référentiels) dans des laboratoires spécialisés en France, au Muséum national d’histoire naturelle, et au Royaume-Uni, à l’Université d’Oxford.

Le séquençage de cet ADN s’est fait en deux étapes. Nous avons d’abord étudié l’ensemble des fragments d’ADN disponibles qui nous ont permis de confirmer qu’il s’agissait bien de chiens et pas d’autres canidés sauvages. Les critères morphologiques que nous avions utilisés sont donc confirmés. Mais, dans la plupart des cas, le génome de ces chiens n’était pas assez bien couvert par le séquençage pour en dire plus : il s’agit d’une des conséquences de la dégradation de l’ADN, à la mort d’un individu, qui se fragmente intensément et, comme un puzzle aux pièces minuscules, il devient difficile de reconstituer un génome complet.

Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou
Squelette de chien retrouvé sur le site de Huca Amarilla, désert de Sechura, Pérou.
Nicolas Goepfert, Fourni par l’auteur

Quand l’ADN mitochondrial révèle ses secrets

Dans un second temps, nous avons réalisé une capture de l’ADN mitochondrial pour filtrer les fragments d’ADN contenus dans les échantillons et garder préférentiellement ceux qui se rapportent au génome mitochondrial. En effet, il existe deux sortes d’ADN dans les cellules : l’ADN nucléaire, contenu dans le noyau de chaque cellule, qui provient pour moitié du père et pour moitié de la mère de chaque chien ; et l’ADN mitochondrial, contenu dans les mitochondries de chaque cellule, et qui, au moment de la fécondation, font partie l’ovule. C’est donc un ADN transmis exclusivement par la mère de chaque chien. Or l’ADN mitochondrial est très court (un peu moins de 17 000 paires de bases, contre 2,5 milliards de paires de bases pour l’ADN nucléaire du chien) et il est présent en multiples exemplaires dans chaque mitochondrie. C’est donc un ADN plus facile d’accès pour la paléogénomique.

Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial
Schéma d’une cellule avec la localisation de l’ADN nucléaire et mitochondrial.
Aurélie Manin, Fourni par l’auteur

Nous avons obtenu suffisamment de fragments d’ADN mitochondrial pour reconstituer les lignées maternelles de 70 individus (8 chiens modernes et 62 chiens archéologiques) et les analyser au moyen d’outils phylogénétiques, c’est-à-dire permettant de reconstituer les liens de parenté entre les chiens. Les arbres phylogénétiques que nous avons pu reconstituer nous ont permis de confirmer que l’ensemble des chiens américains de la période pré-contact (c’est-à-dire avant les colonisations européennes de l’Amérique il y a 500 ans) ont un ADN mitochondrial se rapportant à une seule lignée, traduisant bien l’arrivée du chien en Amérique au cours d’une seule vague de migration.

Néanmoins, nos travaux permettent de préciser que l’ensemble des chiens d’Amérique centrale et du Sud se distinguent des chiens d’Amérique du Nord (Canada et États-Unis actuels) dont ils se séparent il y a environ 7000 à 5000 ans. Cet âge, qui correspond au dernier ancêtre commun à tous les chiens d’Amérique centrale et du Sud, coïncide avec le développement des sociétés agraires, une période pendant laquelle on observe de nombreux mouvements de plantes entre les régions, et notamment celui du maïs, domestiqué au Mexique, qui arrive en Amérique du Sud il y a environ 7000 ans. La structure des lignées maternelles suggère par ailleurs que la diffusion des chiens s’est faite de manière progressive, de proche en proche : les chiens les plus proches géographiquement sont aussi les plus proches génétiquement. Ce principe d’isolement génétique par la distance s’applique normalement plus aux animaux sauvages qu’aux animaux domestiques, dont les mouvements sont avant tout marqués par la volonté humaine qui induit un brassage au gré des échanges culturels. Nous nous sommes interrogés sur les mécanismes de diffusion des chiens en Amérique, suggérant une dispersion relativement libre, liée aux changements d’activités de subsistance et à l’augmentation du stockage des ressources, qui peut avoir contribué à attirer des chiens féraux (vivant à l’état sauvage).

Un chihuahua descendant des chiens précoloniaux

Aujourd’hui, on ne retrouve presque plus trace de ces lignées et leur structuration en Amérique. Un des chiens de notre étude, issu du village indigène de Torata Alta, dans les Andes Centrales, et daté d’avant 1600 de notre ère, possède un ADN maternel d’origine eurasiatique. Les Européens arrivent dans la région en 1532, certainement accompagnés de chiens, et cet individu nous montre que leur lignée s’est rapidement intégrée dans l’entourage des populations locales. C’est le seul animal issu d’un contexte colonial inclus dans notre étude et on ne dispose pas de plus d’informations permettant d’expliquer les mécanismes ayant mené à la diversité génétique des chiens observée aujourd’hui. Quoi qu’il en soit, parmi les chiens de race moderne dont on connaît le génome mitochondrial, un chihuahua porte un génome dont la lignée maternelle remonte aux chiens ayant vécu au Mexique à la période pré-contact. Un indice qui vient corroborer les sources concernant l’histoire de cette race, dont les premiers représentants auraient été acquis au Mexique dans la seconde moitié du XIXe siècle.

Ce travail interdisciplinaire nous a permis de mieux comprendre la diffusion et l’origine des populations de chiens en Amérique centrale et du Sud. Néanmoins, il ne porte que sur l’ADN mitochondrial, et donc sur l’évolution des lignées maternelles. L’analyse du génome nucléaire pourrait révéler d’autres facettes de l’histoire des chiens en Amérique que de futurs travaux permettront de développer.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Aurélie Manin a reçu des financements du NERC (Natural Environment Research Council) au Royaume-Uni pendant la réalisation de cette étude.

ref. 5 000 ans avant le chihuahua, l’épopée des chiens en Amérique latine – https://theconversation.com/5-000-ans-avant-le-chihuahua-lepopee-des-chiens-en-amerique-latine-260107

Le « Parti de l’Amérique » d’Elon Musk peut-il faire vaciller le bipartisme ?

Source: The Conversation – in French – By Frédérique Sandretto, Adjunct assistant professor, Sciences Po

Les tensions entre Donald Trump et Elon Musk semblent avoir atteint un point de non-retour. Le milliardaire de la tech vient d’annoncer la création de sa propre formation politique, le « Parti de l’Amérique ». Si le bipartisme paraît gravé dans le marbre du système états-unien, cette tentative de troisième voie s’inscrit dans une longue tradition de contestation – avec, jusqu’ici, un succès limité.


L’histoire politique des États-Unis a souvent été façonnée par des élans de colère : colère contre l’injustice, contre l’inaction, contre le consensus mou. À travers cette rage parfois viscérale surgit l’énergie de la rupture, qui pousse des figures marginales ou charismatiques à se dresser contre l’ordre établi.

En ce sens, le lancement par Elon Musk du Parti de l’Amérique (« American Party ») s’inscrit dans une tradition d’initiatives politiques issues de la frustration à l’égard d’un système bipartisan jugé, selon les cas, sclérosé, trop prévisible ou trop perméable aux extrêmes. Ce geste politique radical annonce-t-il l’émergence d’une force durable ou ne sera-t-il qu’un soubresaut médiatique de plus dans un paysage déjà saturé ?

Le système bipartisan : stabilité, stagnation et quête d’alternatives

Depuis le début du XIXe siècle, le paysage politique américain repose sur un duopole institutionnalisé entre le Parti démocrate et le Parti républicain. Ce système, bien que traversé par des courants internes parfois contradictoires, a globalement permis de canaliser les tensions politiques et de préserver la stabilité démocratique du pays.

L’alternance régulière entre ces deux forces a assuré une continuité institutionnelle, mais au prix d’un verrouillage systémique qui marginalise les initiatives politiques émergentes. Le scrutin uninominal majoritaire à un tour, combiné à une logique dite de « winner takes all » (lors d’une élection présidentielle, le candidat vainqueur dans un État « empoche » l’ensemble des grands électeurs de cet État), constitue un obstacle structurel majeur pour les nouveaux acteurs politiques, rendant leur succès improbable sans une réforme profonde du système électoral.




À lire aussi :
Débat : Aux États-Unis, le problème est le scrutin majoritaire, pas le collège électoral


Historiquement, plusieurs tentatives ont cherché à briser ce duopole. L’exemple le plus emblématique reste celui de Theodore Roosevelt (président de 1901 à 1909), qui, en 1912, fonda le Progressive Party (ou Bull Moose Party), dont il devint le candidat à la présidentielle de cette année. Le président sortant, William Howard Taft, républicain, vit alors une grande partie des voix républicaines se porter sur la candidature de Roosevelt, qui était membre du Parti républicain durant ses deux mandats, ce dernier obtenant 27 % des suffrages contre 23 % pour Taft ; le candidat du parti démocrate, Woodrow Wilson, fut aisément élu.

Plus récemment, en 1992, dans une configuration assez similaire, le milliardaire texan Ross Perot capta près de 20 % des voix en tant que candidat indépendant lors de l’élection remportée par le démocrate Bill Clinton devant le président sortant, le républicain George H. Bush, auquel la présence de Perot coûta sans doute un nombre considérable de voix. Perot allait ensuite fonder le Reform Party en 1995. Sa rhétorique anti-establishment séduisit un électorat désabusé, mais son mouvement s’effondra rapidement, victime d’un manque de structure organisationnelle, d’idéologie claire et d’ancrage local.

Ross Perot (à droite) lors du troisième débat l’opposant à Bill Clinton et à George H. Bush lors de la campagne présidentielle de 1992.
George Bush Presidential Library and Museum

D’autres figures, telles que les écologistes Ralph Nader (2000, 2004, 2008) et Jill Stein (2012, 2016, 2024) ou le libertarien Gary Johnson (2012 et 2016), ont également porté des candidatures alternatives, mais leur impact est resté marginal, faute de relais institutionnels et d’un soutien électoral durable.

Cette récurrence de la demande pour une « troisième voie » reflète la complexité croissante de l’électorat américain, composé de modérés frustrés par l’immobilisme partisan, de centristes orphelins d’une représentation adéquate et d’indépendants en quête de solutions pragmatiques. Ce mécontentement, ancré dans la perception d’un système bipartisan sclérosé, offre un terrain fertile à des entreprises politiques disruptives, telles que le Parti de l’Amérique d’Elon Musk, qui cherche à transformer cette frustration en une force politique viable.

Le Parti de l’Amérique : une réappropriation symbolique et une réponse au trumpisme

Le choix du nom « Parti de l’Amérique » n’est pas anodin ; il constitue une déclaration politique en soi. En adoptant l’adjectif « American », Musk opère une réappropriation symbolique de l’identité nationale, se positionnant comme une force de rassemblement transcendant les clivages partisans.

Cette stratégie rhétorique vise à redéfinir le débat sur ce que signifie être « américain », un enjeu central dans le discours politique contemporain. Le nom, volontairement générique, cherche à minimiser les connotations idéologiques spécifiques (progressisme, conservatisme, libertarianisme) pour privilégier une identité englobante, à la fois patriotique et universelle, susceptible d’attirer un électorat lassé des divisions partisanes. En outre, en reprenant cette dénomination, qui a été celle de plusieurs formations politiques par le passé, Musk joue avec une mémoire politique oubliée, tout en expurgeant ce terme de ses anciennes connotations xénophobes pour en faire un vecteur d’unité et de modernité.

En effet, dans l’histoire des États-Unis, plusieurs partis politiques ont porté le nom d’American Party bien avant l’initiative d’Elon Musk. Le plus célèbre fut l’American Party des années 1850, aussi connu sous le nom de Know-Nothing Party, un mouvement nativiste opposé à l’immigration, en particulier à celle des catholiques irlandais. Fondé vers 1849, il a connu un succès politique important pendant quelques années, faisant élire des gouverneurs et des membres du Congrès, et présentant l’ancien président Millard Fillmore (1850-1853) comme candidat à l’élection présidentielle de 1856.

Après le déclin de ce mouvement, d’autres partis ont adopté le même nom, notamment dans les années 1870, mais sans impact significatif. En 1924, un autre American Party émerge brièvement comme plate-forme alternative, sans succès durable. Le nom est aussi parfois confondu avec l’American Independent Party, fondé en 1967 pour soutenir George Wallace, connu pour ses positions ségrégationnistes ; ce parti a parfois été rebaptisé American Party dans certains États.

En 1969, une scission de ce dernier a donné naissance à un nouvel American Party, conservateur et anti-communiste. Par la suite, divers petits groupes ont repris ce nom pour promouvoir un patriotisme exacerbé, des idées anti-globalistes ou un retour aux valeurs fondatrices, mais sans réelle influence nationale. Ainsi, le nom American Party a été utilisé à plusieurs reprises dans l’histoire politique américaine, souvent par des partis à tendance nativiste, populiste ou conservatrice, et porte donc une charge idéologique forte.

Le lancement du Parti de l’Amérique de Musk s’inscrit également dans une opposition explicite au trumpisme, perçu comme une dérive populiste du conservatisme traditionnel. Musk, par sa critique des projets budgétaires de Donald Trump, exprime une colère ciblée contre ce qu’il considère comme une gestion économique irresponsable et des politiques publiques inefficaces.

Cette opposition ne se limite pas à une divergence tactique, mais reflète une volonté de proposer une alternative fondée sur une vision techno-libérale, où l’innovation, la rationalité scientifique et l’entrepreneuriat occupent une place centrale. Le Parti de l’Amérique se présente ainsi comme un refuge pour les électeurs désenchantés par les excès du trumpisme et par les dérives perçues du progressisme démocrate, cherchant à dépasser le clivage gauche-droite au profit d’un pragmatisme axé sur l’efficacité, la transparence et la performance publique.

Une idéologie floue : aspirations économiques plutôt que fondements doctrinaires

Le Parti de l’Amérique, malgré son ambition de réinventer la politique américaine, souffre d’une absence de fondements idéologiques cohérents. Plutôt que de s’appuyer sur une doctrine politique clairement définie, le mouvement semble guidé par des aspirations économiques et financières, portées par la vision entrepreneuriale de Musk.

Cette approche privilégie la méritocratie technologique, l’optimisation des ressources publiques et une forme de libertarianisme modéré, qui rejette les excès de la régulation étatique tout en évitant les dérives de l’anarcho-capitalisme. Cependant, cette orientation, centrée sur l’efficacité et l’innovation, risque de se réduire à un programme technocratique, dénué d’une vision sociétale ou éthique plus large.

Le discours du Parti de l’Amérique met en avant la promesse de « rendre leur liberté aux Américains » mais la nature de cette liberté reste ambiguë. S’agit-il d’une liberté économique, centrée sur la réduction des contraintes fiscales et réglementaires pour les entrepreneurs et les innovateurs ? Ou bien d’une liberté plus abstraite, englobant des valeurs civiques et sociales ? L’absence de clarification sur ce point soulève des questions quant à la capacité du parti à fédérer un électorat diversifié.




À lire aussi :
Du populisme de plateforme au populisme politique : Elon Musk change d’échelle


En se focalisant sur des objectifs économiques – tels que la promotion des mégadonnées, de l’intelligence artificielle et de l’entrepreneuriat – au détriment d’une réflexion sur les enjeux sociaux, culturels ou environnementaux, le Parti de l’Amérique risque de se limiter à une élite technophile, éloignant les électeurs en quête d’un projet politique plus inclusif. Cette orientation économique, bien que séduisante pour certains segments de la population, pourrait ainsi entraver la construction d’une base électorale suffisamment large pour concurrencer les partis établis.

Les défis de la viabilité : entre ambition et réalité électorale

La viabilité du Parti de l’Amérique repose sur plusieurs facteurs décisifs : sa capacité à s’implanter localement, à recruter des figures politiques crédibles, à mobiliser des ressources financières et médiatiques durables, et surtout à convaincre un électorat de plus en plus méfiant à l’égard des promesses politiques.

Si Elon Musk dispose d’un capital symbolique et économique considérable, sa transformation en une dynamique collective reste incertaine. Le système électoral américain, avec ses mécanismes favorisant les grands partis, constitue un obstacle majeur. Sans une crise systémique ou une réforme électorale d’envergure, le Parti de l’Amérique risque de reproduire le destin éphémère de ses prédécesseurs.

De plus, la figure de Musk est profondément polarisante. Sa colère, catalyseur de cette initiative, traduit un malaise réel dans la société américaine, mais sa capacité à fédérer au-delà de son audience habituelle – composée d’entrepreneurs, de technophiles et de libertariens – reste à démontrer. Le succès du Parti de l’Amérique dépendra de sa capacité à transcender l’image de son fondateur (lequel ne pourra pas, en tout état de cause, se présenter à l’élection présidentielle car il n’est pas né aux États-Unis) pour incarner un mouvement collectif, ancré dans des structures locales et des propositions concrètes.

L’histoire politique américaine montre que les mouvements de troisième voie, bien que porteurs d’espoir, peinent à s’inscrire dans la durée face aux contraintes structurelles du système électoral.

Le Parti de l’Amérique, malgré l’aura de son instigateur, risque de demeurer un sursaut protestataire plutôt qu’une force durable. Toutefois, il révèle une vérité profonde : l’Amérique contemporaine est en quête d’un nouveau récit politique, et la colère, lorsqu’elle est canalisée, peut parfois poser les bases d’une transformation.

Reste à savoir si le « grand soir » annoncé par Musk saura prendre racine ou s’évanouira dans le tumulte électoral.

The Conversation

Frédérique Sandretto ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Le « Parti de l’Amérique » d’Elon Musk peut-il faire vaciller le bipartisme ? – https://theconversation.com/le-parti-de-lamerique-delon-musk-peut-il-faire-vaciller-le-bipartisme-260569

L’école face aux fake news : apprendre à décrypter les discours pour former des citoyens avertis

Source: The Conversation – in French – By Marie Coutant, Doctorante en Didactique des Disciplines (LAB-E3D), Université de Bordeaux

Dans un monde où les discours circulent de plus en plus vite et peuvent être générés par des machines, il importe plus que jamais d’apprendre aux élèves à remettre en contexte ce qu’ils lisent et à comparer leurs sources, en s’interrogeant sur les intentions des locuteurs. Exemple en classe de CM2.


Dans un contexte marqué par une surabondance d’informations issues des réseaux sociaux et d’internet, il devient de plus en plus difficile, pour les jeunes, de distinguer les sources fiables des contenus mensongers. Dans ce contexte, le rôle des enseignants dans le développement des compétences critiques des élèves s’avère crucial.

Peu de chercheurs en didactique se sont véritablement attelés à définir ce que recouvre la notion de critique. Ce n’est pas une discipline officiellement enseignée. Cette notion est transversale, on parle plutôt de compétence critique ou de pensée critique.

Voici ce que propose Hannah Arendt dans Juger, sur la philosophie politique de Kant : « Le penser critique n’est possible que là où les points de vue de tous les autres sont ouverts à l’examen ». L’examen c’est l’analyse, l’observation minutieuse d’un élément pour établir une réalité. En histoire, il est difficile d’établir une vérité en dehors des faits, un document portant toujours le point de vue de celui qui l’a créé. On préfère donc le terme de réalité. Afin de mener cet examen, comment s’y prend-on ? Quel processus peut être mis en œuvre ?

Le rôle de l’enseignant

La classe se structure autour de plusieurs pôles : l’enseignant, les élèves et le savoir en jeu, constituant ce que l’on désigne généralement comme le triangle didactique. En amont de la séance, l’enseignant engage une réflexion préalable sur les savoirs à transmettre. Il est alors pertinent d’analyser les modalités concrètes qu’il mobilise en situation d’enseignement, sous la forme de gestes professionnels.

L’enseignant va utiliser cet outil pour guider, orienter les élèves vers le savoir qu’il a décidé de viser : ici, la compétence critique. Étudier son rôle et son langage est donc une entrée pour mieux comprendre le discours des élèves et, à travers leurs paroles, leur faire apprendre un savoir, une compétence. Le discours de l’enseignant va être analysé au prisme de ce qu’on appelle les gestes professionnels langagiers didactiques.

Ce concept de gestes professionnels trouve son origine dans la psychologie du travail. Il renvoie d’abord à des gestes corporels : l’enseignant se déplace, mobilise ses mains et exprime des intentions à travers ses mimiques. Ces gestes sont qualifiés de « professionnels » car ils contribuent à l’instauration de codes partagés au sein de la classe (corriger des copies par exemple). Ils sont également langagiers, dans la mesure où le langage constitue l’outil central de l’enseignant pour transmettre des connaissances : il s’agit d’un discours structuré autour d’un objectif d’apprentissage. Enfin, ces gestes sont didactiques, en ce qu’ils participent à la construction d’un savoir ciblé. Cet ensemble de gestes relève d’un processus d’étayage, visant à guider et orienter l’activité cognitive des élèves.

L’enseignant mobilise le langage de diverses manières : pour mettre en lumière le thème de la discussion (geste de focalisation), valoriser l’intervention d’un élève en la reprenant (geste de reprise), attirer l’attention sur un élément pertinent à analyser (geste de pointage), reformuler et enrichir les propos d’un élève (geste de reformulation), ou encore établir des liens avec des connaissances précédemment construites (geste de tissage didactique).

Ces gestes de l’enseignant peuvent amener les élèves à se poser des questions, à réfléchir et à débuter la construction d’une compétence critique.

Un cours d’histoire en CM2

Les données sont recueillies dans une classe de CM2 lors des séances d’histoire. La démarche de cette recherche est d’étudier des lettres de poilus présentant des points de vue différents, voire divergents. Les élèves sont confrontés à l’avis de quelqu’un qui a vraiment existé et qui nous livre sa pensée. Les élèves sont amenés à utiliser les mêmes outils que les historiens pour comprendre les documents : mener des enquêtes.

Ici il s’agit de deux lettres de poilus (Giono et Prieur) qui ont écrit en étant au même endroit (1916 à Verdun) mais pas tout à fait au même moment. Voici les lettres transcrites.

Initier les élèves à un questionnement méthodique

Afin de mettre en évidence l’intérêt des gestes professionnels langagiers didactiques dans les propos de l’enseignante et leur rôle dans la construction d’une pensée critique, nous analysons un échange portant sur la lettre de Giono (la lettre de Prieur ayant également été travaillée en classe). L’enseignante est désignée par l’abréviation PE, et les prénoms des élèves ont été modifiés. La transcription rend fidèlement les échanges, y compris les erreurs de langage. Les gestes professionnels langagiers didactiques repérés sont signalés en gras.


Fourni par l’auteur

Dans le tour de parole 335, l’enseignante focalise l’attention des élèves sur l’objet de la discussion, à savoir la lettre de Giono. Elle reformule alors l’intervention d’une élève en soulignant que la lettre de Prieur « dit la vérité ». Elle oriente ensuite le regard des élèves vers la lettre de Giono et les invite à réfléchir à la question de sa véracité.

Cela entraîne des réponses intéressantes de la part des élèves : « il ment » (Giono), un autre précise « il dissimule la vérité ». Les élèves questionnent le contenu de la lettre de Giono et réalisent que l’auteur ment : ce que dit Giono est donc potentiellement faux.

L’enseignante reprend sans modification l’intervention d’Archie et demande des précisions sur les indices qui le mènent à cette conclusion.

L’enseignante précise sa question : que manque-t-il dans cette lettre pour être crédible ?

Les élèves répondent de deux manières : en citant les éléments manquants tel le lexique en lien avec le domaine de la guerre (qui sont évoqués dans la lettre de Prieur) et, en réalisant que l’auteur parle de joie, terme qui ne coïncide pas avec la thématique guerrière.

L’enseignante reprend la remarque d’Archie sur le mot « joie » en donnant son avis (« choquant »). Elle incite les élèves à continuer leur enquête en cherchant d’autres mots inattendus dans la lettre de Giono. Archie trouve tout de suite le mot « heureux ».


Fourni par l’auteur

L’enseignante questionne ensuite les élèves dans l’objectif de replacer la situation dans un contexte qui leur permet de comprendre le décalage entre être heureux et être en guerre. Elle engage un tissage didactique, pour chercher un lien entre ce qu’ils connaissent et ce qui est travaillé en classe : « A quel moment de votre vie vous êtes heureux ? »

Jane se positionne et estime que Giono dit la vérité, mais la sienne, en omettant l’aspect négatif que représentent la guerre et ses combats.

Les élèves comprennent ensuite que Giono s’adresse à ses parents âgés et qu’il cherche à ne pas les inquiéter. La compétence critique permet alors aux élèves de saisir non seulement ce que dit l’auteur, mais surtout pourquoi il le formule de cette manière et pas autrement. Elle les amène à comprendre qu’un texte ne se limite pas à transmettre une information : il produit un discours – au sens fort du terme – qui poursuit un objectif spécifique (ici, rassurer ses parents). Les gestes de l’enseignante visent précisément à guider les élèves vers cette compréhension.

Initier les élèves à un questionnement méthodique permettant de mieux comprendre la fonction d’un document relève de gestes professionnels que l’enseignant peut mettre en œuvre en classe. On le voit bien dans cet extrait de transcription : l’enseignante pose des questions pour orienter la réflexion des élèves et cela permet aux élèves de questionner ce qu’ils lisent.

Face aux réseaux sociaux, l’école primaire et le travail autour de la compétence critique doivent permettre aux jeunes d’être en mesure d’analyser les informations reçues et de pouvoir les trier.

The Conversation

Marie Coutant ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’école face aux fake news : apprendre à décrypter les discours pour former des citoyens avertis – https://theconversation.com/lecole-face-aux-fake-news-apprendre-a-decrypter-les-discours-pour-former-des-citoyens-avertis-258036

Le genre en archéologie : un retard français difficile à justifier

Source: The Conversation – in French – By Caroline Trémeaud, Chargée de recherche Service archéologique des Ardennes, UMR 8215 Trajectoires, Centre national de la recherche scientifique (CNRS)

La notion de genre a commencé à émerger en archéologie à la fin des années 1970, dans les pays nordiques et anglo-saxons. Sa conceptualisation théorique se concrétise à partir des années 1990 avec une multiplication des monographies sur cette question, tant en Europe qu’outre-Atlantique. Or, la recherche française en archéologie, notamment en pré- et protohistoire, ne s’est pas du tout intéressée aux problématiques de genre et ne les a pas intégrées à ses recherches. Pourquoi ?


La première moitié du XXe siècle voit apparaître les prémices des réflexions sur la notion de « rôles sexuels » dans les sciences humaines et sociales, avec notamment les travaux de l’anthropologue américaine Margaret Mead. A la fin des années 1950, Simone de Beauvoir marque une étape avec la distinction entre la femelle et la femme, et son célèbre : « On ne naît pas femme, on le devient ».

A partir des années 1970, avec la montée des mouvements féministes, les sciences humaines et sociales s’emparent de la question des femmes. Entre 1970 et 1990, on assiste à une véritable conceptualisation du genre : sa distinction avec le sexe, sa définition comme un système de différenciation, mais aussi de domination. La terminologie est mise en place et le genre apparaît comme une discipline à part entière au sein des sciences humaines et sociales.

Parallèlement, le genre émerge également en archéologie dès la fin des années 1970, dans un premier temps en Préhistoire, où les problématiques liées à l’interprétation des structures sociales étaient très présentes. Les pays nordiques et le monde anglo-saxon s’emparent du sujet au travers de plusieurs séminaires et publications visant à redonner une place aux femmes comme sujet d’étude, et à gommer les biais androcentriques (qui consistent à envisager le monde d’un point de vue masculin). Les problématiques de genre en archéologie sont définitivement ancrées au début des années 1990 comme un champ de recherche à part entière.

Mais l’archéologie française est restée à l’écart de ce phénomène. Cette constatation est récurrente et soulignée par de nombreux chercheurs sur le genre. Il faut attendre le milieu des années 2010 pour que les premiers ouvrages sur ce sujet soient publiés en France.

Le phénomène est d’autant plus curieux que dans les autres disciplines des sciences humaines et sociales, la recherche française n’est pas absente des problématiques de genre : elle s’y est généralement intéressée dans une chronologie similaire à celle du monde anglo-saxon. Comment expliquer donc cette absence en archéologie ?

Une terminologie problématique en France ?

Le problème de légitimité du terme même de « genre », souvent souligné pour les sciences sociales, est à envisager. En effet, la recherche d’occurrences dans les publications fait clairement ressortir l’absence de l’expression « archéologie du genre » mais aussi la présence d’une autre terminologie : « histoire des femmes », « place des femmes ».

Ce problème de vocabulaire pourrait être lié à la polysémie même du terme de genre, qui est souvent évoquée pour expliquer sa moindre utilisation : le mot renvoie au genre grammatical ou au genre des naturalistes (mâle-femelle), voire à la catégorisation en littérature. Ce problème n’est pas propre à l’archéologie, et s’est traduit dans les sciences sociales françaises avec trois appellations successives depuis les années 1970 : « Études sur les femmes », « Études féministes » et, enfin, « Études sur le genre ».

Les mêmes hésitations ou réticences à utiliser le terme genre ont été à l’œuvre en archéologiques mais une trentaine d’années plus tard, dans les années 2010, lorsque les premières thèses sur le sujet sont réalisées. Ainsi, en 2009, le travail doctoral de Chloé Belard a commencé sous l’appellation : « Les femmes en Champagne pendant l’âge du fer et la notion de genre en archéologie funéraire (dernier tiers du VIe – IIIe siècle av. J.-C.) ». Lors de sa publication en 2017, son titre était devenu : « Pour une archéologie du genre, les femmes en Champagne à l’âge du Fer ». De la simple notion, une véritable revendication du terme (et du travail qui en découle) apparaît alors.

La question du vocabulaire reste cependant insuffisante pour expliquer l’absence de recherche sur cette problématique en archéologie. En effet, bien que son usage soit polémique, les problématiques sont apparues dans d’autres disciplines. Alors, pourquoi des études sur la place des femmes, ou les rapports sociaux de sexe n’ont pas émergé en archéologie française, en Pré – et Protohistoire dès les années 1990 ?


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


Une discipline peu adaptée ?

L’hypothèse d’une discipline d’où les femmes (chercheuses) seraient absentes, ce qui n’aurait pas permis de prendre le train du genre en marche, n’est pas recevable : les Françaises archéologues n’étaient ni moins nombreuses, ni moins impliquées que dans d’autres pays.

Une hypothèse propre aux particularités de la discipline archéologique (des données trop fragmentaires, trop ponctuelles) pourrait être proposée. Néanmoins, pourquoi cette limite serait-elle propre à la recherche française ? Le monde anglo-saxon a au contraire développé les recherches sur le genre en archéologie.

L’archéologie française est peut-être restée plus longtemps dans une approche « processualiste » de l’archéologie, plus rattachée à l’étude des cultures matérielles, objective et cartésienne des données ; se tenant alors plus éloignée d’une archéologie théorique et de l’archéologie « post-processualiste », alors que cette dernière prenait son essor dans le monde anglo-saxon, facilitant l’émergence des études de genre.

Entre un manque d’institutionnalisation, les difficultés du terme à s’imposer jusque dans les années 2000 et des données à priori peu adaptée à cette problématique, l’absence de genre en archéologie pré – et protohistorique apparaît comme multifactorielle. Aucune hypothèse explicative ne semble suffisante pour justifier cette lacune ? D’autant qu’en archéologie, en France, des questions sur la place des femmes se sont posées lors de certaines fouilles…

Le cas de la Dame de Vix

En février 1953, dans le nord de la Côte d’Or, à Vix, est découverte une sépulture princière de la fin du VIe s. av. J.-C., comportant notamment un torque en or de plus de 400g et un cratère en bronze d’une capacité de 1 100 l. L’absence d’arme lance un vif débat : cela ouvre la possibilité qu’il puisse s’agir d’une tombe féminine.

En archéologie, une tombe masculine particulièrement riche soulève peu de questions d’interprétation : il s’agit probablement d’un personnage dirigeant. Mais s’il s’agit d’une femme, sa richesse n’est que rarement interprétée comme une marque de son propre pouvoir, mais comme le signe qu’elle est liée à un homme puissant (son mari, son père ou son frère…) On pourrait imaginer que le principe du rasoir d’Ockham s’appliquerait : pour une tombe très riche, avec tous les marqueurs de pouvoirs, peu importe le sexe ou le genre de la personne, l’hypothèse d’un personnage dirigeant doit être discutée. Mais ce n’est pas le cas.

Pendant un demi-siècle, articles scientifiques et de recherches vont essayer de répondre à la question : qui est la Dame de Vix ?

Représentation féminine sur une monnaie gauloise, IIe siècle av J.-C.
Représentation féminine sur une monnaie gauloise, IIe siècle av J.-C.
Musée de Bretagne, Rennes, CC BY

Les hypothèses vont se succéder : religieuse, travestissement, situation de régence… En 2002, on suppose même qu’elle devait être extrêmement laide, ce qui lui aurait permis d’avoir une forme de pouvoir spirituel ou religieux, une position sociale prééminente qui expliquerait sa richesse. Il aura fallu des études ADN (récemment confirmée par la réouverture des fouilles) pour que son sexe ne soit plus remis en question : il s’agit bien d’une femme.

L’aspect le plus étonnant n’est pas tant dans la démultiplication des stéréotypes ou le biais hétéronormatif que souligne cette littérature, mais dans une sorte d’aporie : durant ces 50 ans de débats autour de la Dame de Vix, jamais une réflexion plus globale sur la place des femmes ou sur les rapports sociaux de sexe dans ces sociétés ne sera posée. L’analyse reste au niveau anecdotique, sur un cas particulier.

De l’occultation du genre à l’effet de mode

Depuis le milieu des années 2010, les choses s’améliorent. Le dynamisme des études de genre en archéologie est désormais bien visible, que ce soit à travers la multiplication des publications, des travaux universitaires ou encore des journées d’étude. Cette évolution positive permet une visibilité accrue, des échanges renforcés et stimulés.

Il ne manque désormais qu’une reconnaissance de cette spécialité au travers d’une institutionnalisation universitaire avec l’intégration concrète du genre dans les formations et la création de postes spécialisés.

Ces deux dimensions manquent cruellement. En effet, le genre est devenu le mot-clé des institutions pour promouvoir l’égalité. Aussi bénéfique qu’elle soit, cette reconnaissance est à double tranchant. Sans une approche théorique et méthodologique sérieuse, faire du genre en archéologie revient presque à appliquer les mêmes stéréotypes que ceux dénoncés. Le genre est un réel outil que l’archéologie doit s’approprier : il paraît aujourd’hui plus que nécessaire de le définir, le redéfinir et expliquer son pouvoir heuristique, pour éviter les dérives interprétatives et abus théoriques.

La légitimation du genre en archéologie semble acquise. Désormais, l’archéologie se doit de dépasser l’engouement et produire une archéologie du genre rigoureuse.


Cet article est publié dans le cadre de la série « Regards croisés : culture, recherche et société », publiée avec le soutien de la Délégation générale à la transmission, aux territoires et à la démocratie culturelle du ministère de la culture.

The Conversation

Caroline Trémeaud a reçu des financements de l’Institut Emilie du Châtelet, sous la forme d’une allocation doctorale finançant cette recherche.

ref. Le genre en archéologie : un retard français difficile à justifier – https://theconversation.com/le-genre-en-archeologie-un-retard-francais-difficile-a-justifier-255321

Réforme des retraites : quelle est la valeur juridique d’un « conclave » ?

Source: The Conversation – France in French (3) – By Stéphane Lamaire, Professeur associé au CNAM en droit du travail, Conservatoire national des arts et métiers (CNAM)

Le gouvernement espère toujours un accord entre partenaires sociaux dans le cadre du conclave sur la réforme des retraites. Mais quelle serait la valeur juridique de ce « conclave » ?


Tentant de clore le vif débat ouvert par l’adoption de la Loi au sujet du recul de l’âge légal de départ à la retraite à 64 ans, le 1er ministre a proposé aux représentants des salariés et des employeurs une procédure qu’il a qualifié de « conclave ». Cette dénomination évoquant la désignation d’un nouveau pape est d’autant plus mal choisie qu’elle renvoie en réalité à une vieille procédure fort républicaine de « concertation ». Quels sont ses fondements et ses modalités ?

La « concertation » selon la loi

Notre système politique a longtemps connu une tradition de « concertation » informelle ayant porté ses fruits en donnant lieu à des accords interprofessionnels fondateurs notamment dans le domaine des retraites (accords sur les régimes complémentaires de retraites des salariés cadres – AGIRC – en 1947 ainsi que non-cadres – ARRCO – en 1961). Toutefois la loi du 31 janvier 2007 a institué une procédure de « concertation » préalable aux votes de projets de Loi portant sur les relations individuelles et collectives du travail, l’emploi et la formation professionnelle.

Pour certains, cette institutionnalisation de la participation des parties prenantes à la formation de la loi représente un effort méritoire accordant une nouvelle place aux destinataires de la loi, mais pour d’autres il s’agit bien au contraire d’un abaissement supplémentaire de la place du parlement, voire une atteinte inadmissible à la souveraineté du peuple s’exprimant normalement par la représentation parlementaire. En effet, l’article 3 de notre Constitution précise que : « la souveraineté nationale appartient au peuple qui l’exerce par ses représentants et par la voie du referendum. Aucune section du peuple ni aucun individu ne peut s’en attribuer l’exercice ». Par conséquent, dans les différentes branches du droit, la Loi est exclusivement formée par des parlementaires, le cas échéant sur un projet du gouvernement.

Néanmoins, en matière de droit du travail, la formation de la loi fait désormais l’objet d’une délibération publique associant divers acteurs privés considérés comme représentatifs et dont l’avis est sollicité de façon formelle. Cette procédure ne se confond pourtant pas avec la consécration d’une négociation collective interprofessionnelle préalable au vote de la Loi. Il ne s’agit pas de prévenir (ou de régler) un éventuel antagonisme social par le procédé de la négociation collective, mais de préférer un « dialogue » afin d’obtenir une mise en œuvre efficace des réformes voulues par les autorités publiques.

Pas de compétence autonome des partenaires sociaux

Dans plusieurs systèmes juridiques, comme en Allemagne (l’article 9, alinéa 3 de la constitution allemande, les acteurs sociaux ont obtenu un champ de compétence autonome constituant un domaine réservé en matière de droit du travail. C’est ce qu’ont réclamé les partenaires sociaux français (positions communes des 16 juillet 2001 et 9 avril 2008 sans obtenir satisfaction. En droit français, il n’existe pas de liste de thèmes pour lesquels les protagonistes sociaux bénéficient d’une priorité d’intervention leur permettant de supplanter le législateur. Si le principe constitutionnel de participation garantit et soutient la contribution de la négociation collective à la production normative du droit du travail, le législateur fixer toujours les grands principes.

La « concertation » représente donc un prudent englobement de la « démocratie sociale » par la « démocratie politique », conférant aux acteurs sociaux la possibilité de discuter les termes des projets de réformes du droit du travail mais conservant au bout du compte au législateur le pouvoir du « dernier mot » comme l’écrit Alain Supiot.

Un gouvernement peu contraint par la « concertation »

En outre, l’examen de la portée effective de cette « concertation » démontre sa modestie. Soulignons d’abord que les modalités prescrites sont très peu contraignantes. En effet, le Conseil Constitutionnel et le Conseil d’État estiment que si la Loi adoptée n’a pas respecté la procédure prévue par les articles n°1 et suivants du Code du travail, mais qu’elle a tout de même suivi une procédure de « concertation » au moins équivalente, alors elle peut être jugée comme conforme à la Constitution. Il en découle que le gouvernement peut changer selon sa guise les modalités de la « concertation ». De surcroît, il peut décider d’étendre le domaine des thèmes soumis à la procédure en question comme il le fait actuellement au sujet de l’âge légal de départ à la retraite.

Par la suite, les acteurs professionnels ont le choix de donner une suite favorable ou défavorable à une sollicitation entièrement formulée par les pouvoirs publics. En cas de refus, liberté est laissée au gouvernement de former son projet de façon unilatérale. Cependant s’ils décident de se saisir du sujet, le gouvernement doit attendre la fin de leurs pourparlers. Dans l’hypothèse de la conclusion d’un accord dont le contenu a pour effet de modifier la Loi, le gouvernement se trouve dans l’obligation de reprendre à son compte le texte conventionnel par le biais d’un projet de Loi. Dès lors, celui-ci peut reprendre fidèlement à son compte le texte issu de la négociation collective en l’incorporant intégralement à la Loi ou se réserver la possibilité de le réécrire par addition ou soustraction. Enfin, le projet en question est ensuite soumis au pouvoir d’amendement et de vote du parlement.

En cas d’échec des négociations, le gouvernement a la possibilité d’abandonner son initiative, ou de reprendre les fragments de compromis sociaux de son choix, pour présenter son propre projet au parlement. Selon ces différentes hypothèses, il doit éviter un procès en déloyauté de la part de signataires bafoués ou de négociateurs incapables de trouver un compromis. Dès lors, les marges de manœuvre sont plus ou moins larges selon les diverses situations mais à coup sûr relativement étroites en cas de conclusion d’un accord sur la base d’un large consensus des acteurs professionnels. Il en ressort que le champ de la coproduction des normes légales du travail s’apparente à un espace où le législateur et les protagonistes sociaux se surveillent et formulent des reproches réciproques.

En somme, par le biais de cette modeste procédure, le gouvernement trouve avantage à déléguer de manière contrôlée la formation de la Loi aux acteurs professionnels représentatifs soit pour se délier de sa responsabilité soit pour tenter de renforcer sa légitimité.

The Conversation

Stéphane Lamaire ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Réforme des retraites : quelle est la valeur juridique d’un « conclave » ? – https://theconversation.com/reforme-des-retraites-quelle-est-la-valeur-juridique-dun-conclave-260451

‘Pylon wars’ show why big energy plans need locals on board

Source: The Conversation – UK – By Simone Abram, Professor in the Department of Anthropology, Director of Durham Energy Institute, Durham University

David Iliff / shutterstock

Thousands of new electricity pylons are to be built across parts of England under the government’s plans to decarbonise the electricity. And some people aren’t happy.

A glance at recent Daily Telegraph articles seem to suggest most of the genteel English countryside is about to be taken over by evil metal monsters. Headlines talk of “noisy” pylons set to “scythe through” “unspoiled countryside”, leading to a “pylon penalty” for house prices and even “mass social unrest”.

While some of the stories are rather over the top, they reflect a genuine unease, and there have been significant campaigns against pylons. In Suffolk, for instance, resistance is building against plans for a 114-mile-long transmission line connecting new offshore wind farms to Norwich and beyond.

So why do these towering steel structures evoke such powerful feelings?


Get your news from actual experts, straight to your inbox. Sign up to our daily newsletter to receive all The Conversation UK’s latest coverage of news and research, from politics and business to the arts and sciences.


Pylons have had a particular fascination since they were first introduced in the 1920s. Even then, the biggest challenge was to get “wayleaves” (permission) to cross farmland. To calm rural protest groups, the government’s electricity board commissioned an architect, Reginald Blomfield, to design transmission towers with an eye to “visual amenity”.

Man stands on wire high above countryside
Pylon cleaning, 1946.
Smith Archive / Alamy

In the most protected areas, expensive underground cabling was used to hide the transmission lines altogether. The board used its copious marketing materials to emphasise that this option was around six times more expensive, and therefore only for exceptional use. By the 1940s pylons were much cheaper than underground cables, providing a techno-economic rationale that remains politically persuasive today.

Why we love the countryside

One reason pylons are so controversial is related to a particularly English fascination with landscape. The geographer David Matless wrote some years ago of the “powerful historical connection” between Englishness and a vision of its countryside. People feel a degree of ownership over a varied landscape, encompassing lowland and upland, north and south, picturesque and bleak, and often have strong opinions about what “fits”, what constitutes “heritage” and what is “out of place”.

Even if most of England is privately owned and commercially farmed, many people still imagine the land as a public good tied to national sentiments and see pylons as intruders in the landscape.

Pylons in fields above reservoir
Intruders? Pylons in England’s Peak District.
Martin Charles Hatch / shutterstock

This could also explain why proposals to build infrastructure across the English countryside often provoke significant objections. My research on planning in the Home Counties (the areas surrounding London) back in the 1990s revealed a very determined population of well-educated and well-resourced people willing to spend significant amounts of time and money ensuring that the landscape met their expectations.

Concerted efforts had seen off a proposal from the then Conservative government to build a motorway through the Chiltern Hills to the west of London, for example.

There were, and still are, innumerable village groups willing to turn up to public enquiries and to pay lawyers to launch appeals and legal challenges. They may have been sceptical of the more grungy road protesters (historically embodied by the indomitable Swampy), but there was certainly common purpose.

My conclusion at the time was never to underestimate the effectiveness of local action where people’s vision of the English countryside was challenged. More recently, plans to run the HS2 rail line through those same hills ran into fierce local opposition, which prompted significant redesigns.

That’s all well and good, but today we face catastrophic climate change and biodiversity loss. Wind turbines are one of the most effective ways to decarbonise electricity supplies, but they are in different places from the old coal and gas power stations. Ironically, the same love of landscape that pushed wind farms out to sea now fuels opposition to the cables that bring the power back to land.

Democratic decisions?

One of the challenges here is that decisions over things like high-voltage transmission lines are based on models that seek to “optimise” the design of equipment, on the basis of cost or effectiveness, or both. These models have no way to account for landscape and heritage value or aesthetics and should never be the sole basis for decisions about infrastructure.

Running pylons across Suffolk might be the cheapest route with least electrical loss, but is it the best option? What would the alternatives be? Starting the discussion from the basis of techno-economic modelling often preempts a properly balanced debate.

This isn’t an argument for or against big pylons. It’s a call for more democratic planning and not less.

Studies consistently show that people resent being excluded from decisions that reshape their landscape and environment. Planning is a political process, and in any such process, humiliating your opponent rarely leads to long-term harmony.

Top down decisions about “national infrastructure” may save time on paper but are not a good way to make progress. It appears autocratic and shifts objectors onto the streets or into the courts.

Real consultation takes time and effort. But it builds trust and leads to better outcomes.

Maybe pylons are the least-worst option. Maybe not. But we won’t know unless we ask – and listen.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 45,000+ readers who’ve subscribed so far.


The Conversation

Simone Abram receives funding from EPSRC for research on integrated energy systems and equality, diversity and inclusion in energy research. She received funding from the Norwegian Research Council for research on socially-inclusive energy transitions. Her Chair is co-funded by Ørsted UK but she does not represent the company in any way and any views expressed here remain independent.

ref. ‘Pylon wars’ show why big energy plans need locals on board – https://theconversation.com/pylon-wars-show-why-big-energy-plans-need-locals-on-board-258877