Los hijos deciden cada vez más sobre gastos familiares, pero sin saber cuánto ganan sus padres

Source: The Conversation – (in Spanish) – By Beatriz Feijoo, Profesora Titular de Publicidad, Universidad Villanueva

BearFotos/Shutterstock

Los hijos participan cada vez más en las decisiones de consumo del hogar: opinan sobre dónde ir de vacaciones, qué tecnología comprar en el hogar o incluso qué productos de cuidado personal entran en casa. Sin embargo, la mayoría desconoce el presupuesto familiar. Dos elementos que avanzan en direcciones opuestas: más poder para decidir, pero menos información para comprender lo que implican esas decisiones.

Esta es una de las conclusiones más llamativas del proyecto MARK&TEEN, una investigación que hemos realizado en la Universidad Villanueva con el apoyo de la Fundación BBVA. Se encuestaron a 1 088 adolescentes de entre 12 y 17 años y a uno de sus progenitores (en total, 2 176 personas de toda España) para analizar el fenómeno del consumo familiar desde dos perspectivas: la de los jóvenes y la de los adultos.

Lo que los hijos sienten y lo que los padres creen

Cuando se pregunta a los adolescentes por su participación en las decisiones familiares, la imagen que describen es la de una presencia activa, aunque no siempre decisoria. La mitad afirma que las vacaciones se eligen entre todos y un 5,4 % siente que en esa elección su opinión ha tenido más peso. En decisiones sobre tecnología del hogar el porcentaje de participación conjunta baja al 35 %, y en la decoración o el mobiliario, al 25 %. Es decir, los adolescentes están en la conversación, pero no siempre tienen la sensación de estar determinando el resultado.

Esa percepción cambia cuando se trata de decisiones sobre sí mismos. En ropa, tecnología personal, productos de cuidado corporal u ocio, alrededor del 50 % de los adolescentes señala que son ellos principalmente quienes deciden. Aquí la voz juvenil sí se experimenta como autónoma, como parte de su construcción identitaria y de su forma de estar en el mundo.

Incluso más allá de su propio consumo, los adolescentes describen un espacio de influencia hacia los padres. Un 10 % dice intervenir en la elección de la ropa de los adultos, un 20 % en sus planes de ocio y hasta un 29 % en decisiones relacionadas con los productos de higiene y cuidado personal.

Desde la perspectiva adulta, la imagen es aún más participativa. Seis de cada diez padres consideran que las decisiones sobre vacaciones, decoración o servicios compartidos, como las plataformas de streaming, se toman de forma democrática. En lo relativo a su propio consumo, uno de cada cuatro admite que sus hijos participan y casi un 30 % reconoce que, cuando se trata de productos destinados a los adolescentes, la decisión la toman preferentemente ellos.

Los datos muestran familias que se conciben a sí mismas como espacios dialogados, donde la participación juvenil no solo es aceptada, sino valorada. Pero también revelan un matiz importante: los padres tienden a percibir más democracia de la que los propios adolescentes sienten.

Participan en la decisión, pero sin toda la información

La autonomía de consumo de los adolescentes no llega solo a la elección de productos: también se refleja en su relación cotidiana con el dinero. Casi el 65 % de los menores afirma manejarlo con frecuencia y, en la mayoría de los casos (85 %), las cantidades pueden ascender a los 100 euros mensuales, algo que padres e hijos reconocen de forma coincidente. Además, cerca de seis de cada diez tiene una cuenta bancaria a su nombre y un 18 % puede ingresar o retirar dinero de manera autónoma. Uno de cada cuatro dispone incluso de tarjeta con capacidad de compra. Es decir, estamos ante jóvenes que no solo consumen, sino que administran y gestionan recursos reales en el día a día.

Sin embargo, cuando trasladamos la conversación a la economía familiar, la fotografía cambia. El 68 % de los adolescentes no sabe cuánto ganan sus padres. Esta falta de información no es anecdótica: se combina con otro dato significativo, el 86 % nunca ha recibido educación financiera.

En términos prácticos, están aprendiendo a tomar decisiones de consumo sin conocer los límites económicos reales que las sustentan. Pueden sugerir cambiar de destino de vacaciones, suscribirse a una nueva aplicación de streaming o incorporar un nuevo producto de cuidado, pero no conocen el esfuerzo material, o simbólico, que implica asumir ese gasto dentro del conjunto de necesidades familiares.

Lo que está ocurriendo es una de falta de contexto. Parece evidenciarse que la conversación sobre el dinero continúa siendo, incluso en hogares dialogados, un espacio reservado al mundo adulto.

Participación, sí, pero con reflexión conjunta

En este contexto, el reto no es frenar la autonomía de los adolescentes ni volver a modelos jerárquicos. La clave reside en acompañar esa participación con información. Si los adolescentes están presentes en la toma de decisiones también deben conocer el contexto y comprender lo que implica decidir. Educar para el consumo no es sólo comprar sino ayudar a pensar qué necesitamos, qué deseamos, qué podemos permitirnos y qué sentido tiene lo que hacemos con el dinero que circula en una familia.

La democratización del consumo familiar es una oportunidad extraordinaria para formar ciudadanos conscientes, capaces de tomar decisiones informadas y responsables. Los adolescentes ya están dentro de la mesa de decisiones. Lo que falta, en muchos casos, es que también estén dentro de la conversación sobre los límites, las prioridades y los valores. Consumir es elegir, y elegir siempre debe implicar conocer y comprender.

La pregunta no es si deben participar. La pregunta es: ¿vamos a darles las herramientas para entender lo que están decidiendo?

The Conversation

Beatriz Feijoo recibe fondos de la Beca Leonardo de Investigación Científica y Creación Cultural 2024 de la
Fundación BBVA. La Fundación BBVA no se responsabiliza de las opiniones, comentarios y contenidos incluidos en el
proyecto y/o los resultados obtenidos del mismo, los cuales son total y absoluta responsabilidad de
sus autores.

ref. Los hijos deciden cada vez más sobre gastos familiares, pero sin saber cuánto ganan sus padres – https://theconversation.com/los-hijos-deciden-cada-vez-mas-sobre-gastos-familiares-pero-sin-saber-cuanto-ganan-sus-padres-268529

Ukraine and Europe’s weakness exposed as US and Russia again negotiate behind Kyiv’s back

Source: The Conversation – UK – By Stefan Wolff, Professor of International Security, University of Birmingham

Renewed talk of no-longer-secret negotiations between the Kremlin and the White House over a plan to end the war in Ukraine that heavily favours Russia adds to a broader sense of doom in Kyiv and among its western partners.

Coupled with the fallout from a sweeping corruption scandal among Ukraine’s elites and stalling efforts in Brussels to provide additional financial aid to Kyiv, a storm is brewing that may lead to Moscow prevailing in its war of aggression.

However, this is not a foregone conclusion. Ukraine is having a very difficult time at the moment on various fronts. The fall of Pokrovsk in eastern Ukraine is a question of when, not if, and of how many men both sides will lose before Russia captures the ruins of the city.

Russia has also upped pressure on the Zaporizhian part of the front and around Kherson on the coast. It is very likely that the Kremlin will continue to push its current advantages, with fighting possibly increasing in the north again around Ukraine’s second-largest city of Kharkiv.

For now, the war of attrition clearly favours Russia. But from a purely military perspective, neither the fall of Pokrovsk nor further Russian territorial gains elsewhere spell the danger of an imminent Ukrainian collapse.

A map showing Russia's territorial control of large parts of eastern Ukraine.
The war of attrition in Ukraine is currently favouring Russia.
Institute for the Study of War / Critical Threats

However, war is never solely a military endeavour – it also requires political will and financial resources. A more existential threat to Ukraine’s war effort, therefore, is the continuing fallout from the corruption scandal. Here, too, certainties are few and far between.

A characteristic feature of political scandals in Ukraine is the difficulty of predicting the reaction of Ukrainian society. Some incidents can become a trigger for large-scale protests that lead to massive change.

This was the case with the Euromaidan revolution in 2014. The revolution triggered a chain of events, from the annexation of Crimea to the Russian-proxy occupation of parts of the Donbas region of eastern Ukraine, to the Kremlin’s full-scale invasion in February 2022.

Other political crises pass without major upheaval. This was the case with the dismissal of the popular commander-in-chief of the Ukrainian army, Valerii Zaluzhnyi, in 2024. Widely seen as a possible challenger to Volodymyr Zelensky in future presidential elections, Zaluzhnyi was subsequently sent into exile as Ukraine’s ambassador to London.

So far, the current corruption scandal has not sparked mass protests in Ukraine. Nor has there been a very harsh response from European leaders. But the fact that virtually all of Zelensky’s inner circle is involved in corruption, according to Ukraine’s national anti-corruption bureau (Nabu), has forced the president to launch a comprehensive response.

Sanctions were imposed on Timur Mindich, Zelensky’s long-term friend and business partner, who fled the country just hours before Nabu raids on November 10. Then, a week after the latest scandal broke, Ukraine’s parliament dismissed the ministers of justice and energy, German Galushchenko and Svitlana Hrynchuk, who were both involved in the scandal.

Meanwhile, Zelensky himself has embarked on a whistle-stop diplomatic tour of European capitals to shore up support for his beleaguered government and country.

He managed to secure deliveries of US liquefied natural gas imports from Greece, which should help Ukraine through the difficult winter months. A landmark military deal with France also promises improved air defences for Ukraine in the short term, and the delivery of 100 fighter jets over the next decade.

Important as they are, these are stopgap measures rather than game changers. And not even all the necessary stopgap measures are done deals. The EU and its member states are still prevaricating on an urgently needed loan to Ukraine. If this loan does not materialise, Kyiv will run out of money in February to pay its soldiers, civil servants and pensioners.

In the meantime, Zelensky is also facing pressure from his own parliamentary faction, Servant of the People. He will be keen to present his tour of Europe to them as a vote of confidence by his western allies. Yet he may also still have to offer the resignation of his longtime ally Andrii Yermak, who was also implicated in the latest corruption scandal.

As head of the presidential office, Yermak is sometimes considered the de facto ruler of Ukraine. Dismissing him would probably please Zelensky’s domestic and foreign critics. Not doing so, on the other hand, should not be seen as a sign of strength. The very fact that the position of such a key ally is up for discussion is a further sign that Zelensky’s political power is, perhaps, fatally weakened.

Moving forward

Critically missing in all of this are three things. The first is a Ukrainian succession plan. Opposition politicians like former president Petro Poroshenko and former prime minister Yulia Tymoshenko are as unpopular as they are tainted by allegations of corruption during their reigns.

There is no clear route to replacing Zelensky if he refuses to step down. And even if he were replaced, a broader-based coalition government is unlikely to find a magic wand to turn Ukraine’s precarious military situation around.

The second unknown is the White House and its dealings with the Kremlin. Apparently, a 28-point US-Russia peace plan is in the making. Yet again, this plan requires major concessions from Ukraine on territory and the future size of its army, while providing no effective security guarantees.

European foreign ministers have been quick to insist that any peace plan needs Ukrainian and European backing. But their appetite to push back hard may be waning. If Kyiv’s western allies get the sense that Ukraine and Zelensky are lost causes, militarily and politically, they may cut their losses and retrench.

This would probably see these countries beef up their own defences and sign up to a US-backed plan that trades Ukrainian land and sovereignty for the extremely slim prospects of Russia accepting such a bargain.

The third critical unknown is whether Putin will cut a deal or drag out negotiations with Trump and push on regardless in Ukraine. Putin’s past track record of playing for time speaks for itself.

Recent comments by Kremlin spokesman Dmitry Peskov that there were no new developments to announce on a possible peace plan also strongly suggest that there has been no change in the Kremlin’s approach. Given what is apparently on the table, even if Putin were inclined to make a deal, it would hardly be of comfort for Kyiv and Brussels.

The danger for Kyiv and its European partners is that talk of Ukraine’s political and military collapse turns into a self-fulfilling prophecy. The consequence of that – Kyiv’s submission to a Russian peace dictate – would be the result of the dysfunctional nature of Ukraine’s domestic politics and the fecklessness of western support as much as any collusion between Trump and Putin.

The Conversation

Stefan Wolff is a past recipient of grant funding from the Natural Environment Research Council of the UK, the United States Institute of Peace, the Economic and Social Research Council of the UK, the British Academy, the NATO Science for Peace Programme, the EU Framework Programmes 6 and 7 and Horizon 2020, as well as the EU’s Jean Monnet Programme. He is a Trustee and Honorary Treasurer of the Political Studies Association of the UK and a Senior Research Fellow at the Foreign Policy Centre in London.

Tetyana Malyarenko receives funding from the Elliott School of International Affairs, George Washington University and the Research Council of Norway (project WARPUT, 361835, implemented by Norwegian Institute of International Affairs)

ref. Ukraine and Europe’s weakness exposed as US and Russia again negotiate behind Kyiv’s back – https://theconversation.com/ukraine-and-europes-weakness-exposed-as-us-and-russia-again-negotiate-behind-kyivs-back-270104

The deep sea and the Arctic must be included in efforts to tackle climate change

Source: The Conversation – Canada – By Juliano Palacios Abrantes, Postdoctoral researcher, Institute for the Oceans and Fisheries, University of British Columbia

Animals on the seafloor, such as corals and crinoids, take carbon into their bodies. When they die, this carbon is taken into seafloor sediments, where it is stored for hundreds and even thousands of years. (Schmidt Ocean Institute/Erik Cordes), CC BY

This year’s COP30 comes after the international Agreement on Marine Biological Diversity of Areas beyond National Jurisdiction (BBNJ) finally acquired the required number of ratification votes by United Nations member states.

The treaty, effective from January 2026, is the first global agreement for marine areas beyond national jurisdictions, with a direct reference to climate change risks in its legal text. Its ratification comes at a crucial time for marine environments.

The momentum of COP30 and the BBNJ treaty creates a unique opportunity to further integrate the ocean, particularly the deep sea, into the climate agenda. By connecting the BBNJ under the United Nations Convention on the Law of the Sea and the 2015 Paris Agreement, UN member states now have the tools to better conserve the deep sea’s biodiversity and its role in the global carbon cycle.

The deeps sea’s role in our climate

The deep sea (areas deeper than 200 metres) covers more than half our planet’s surface and accounts for over 90 per cent of the ocean’s volume. It is Earth’s largest long-term carbon sink.

Since the Industrial Revolution, the deep sea has absorbed roughly 30 per cent of human-caused carbon dioxide emissions and about 90 per cent of excess heat, significantly slowing warming and buffering the planet against even more catastrophic impacts.

The deep sea stores 50 times more carbon than the atmosphere and 20 times more than all terrestrial plants and soils combined. It helps regulate the Earth’s climate and its importance in fighting climate change is immense, stretching from pole to pole.

The polar regions support essential climate functions. The Southern Ocean around Antarctica absorbs approximately 40 per cent of the global oceanic uptake of human-generated carbon. The opposite pole, the Arctic Ocean, is facing some of the most immediate threats from climate change.




Read more:
A walk across Alaska’s Arctic sea ice brings to life the losses that appear in climate data


Against this backdrop, COP30 is hosting an unprecedented number of Indigenous people, with around 3,000 participants. Inuit, Sámi, Athabaskan, Aleut, Yupiit and other Arctic and global Indigenous leaders are voicing the need for climate policy to reflect local knowledge, rights and values in line with claims by Arctic states to sovereignty and stewardship.

However, discontent exists given the lack of representation of Indigenous people in COP30 negotiations. More than 70,000 people participated in the parallel People’s Summit which produced the Declaration of the Peoples’ Summit towards COP30. The declaration calls for more equitable solutions to climate change that include Indigenous and other communities.

Indigenous Peoples already co-create scientific management of marine protected areas, such as the Primnoa resedaeformis coral habitats and glass sponge reefs in Nova Scotia. However, more efforts are needed to reach the 30×30 target to designate 30 per cent of the Earth’s land and oceans as protected areas and achieve the goals of the Paris Climate Agreement.

Closing the ocean gap

Recent sessions of the United Nations Framework Convention on Climate Change (UNFCCC) have focused on co-ordination across major international agreements like the BBNJ. These sessions, along with the latest vulnerability assessments from the Intergovernmental Panel on Climate Change and UNFCCC’s Ocean Climate Change Dialogues, have urged parties to align ocean actions with climate commitments and close measurement and reporting gaps.

In the summer of 2024, Brazil and France started the Blue NDC Challenge, encouraging countries to include ocean-based climate solutions in their National Determined Contributions (NDCs) and National Adaptation Plans.

The UNFCCC requires NDCs to increase carbon uptake rather than historical storage to mitigate. Carbon uptake is the process, activity or mechanism by which natural sinks remove CO2 from the atmosphere. On the other hand, National Adaption Plans may protect deep-sea ecosystems and their biological pump roles.

While recent syntheses show that about 75 per cent (97 out of 130 coastal states that have submitted their NDCs) of UN member states now reference marine and coastal actions in their NDCs, the formal mechanisms for implementing adaptation efforts that include the ocean are lagging behind.

Of the roughly 100 climate indicators being considered at COP30 to monitor the progress of the Paris Agreement’s global goal on adaptation, only 14 include marine or ocean dimensions, with the majority focusing on coasts or shallow waters.

Although those with marine dimensions could be extended to include the deep sea, a persistent omission of deep-sea ecosystems risks undermining both mitigation and adaptation goals. While the final indicators are yet to be determined, it’s critical to ensure that deep-sea ecosystems are explicitly incorporated.

The global stocktake — the Paris Agreement’s process to evaluate the world’s climate action progress — determines if countries are meeting goals and identifies gaps. The stocktake must also identify the deep ocean and deep-sea life specifically, and elaborate on appropriate ocean-based climate actions, comparable to elaborations on the need to halt and reverse deforestation and forest degradation.

Supporting the Paris Agreement

photo of bivalves and yeti crabs under water
A hydrothermal vent community of bivalves and yeti crabs (Kiwa hirsuta). Chemosynthesis converts inorganic compounds like sulphide/methane via microbial communities where light is unavailable in the deep sea.
(Schmidt Ocean Institute/Erik Cordes)

Emerging activities, misguidingly branded as helping the energy transition — like deep-sea mining — further threaten oceans by causing irreparable damage to the sea floor and in the water column.

Geoengineering technologies to remove excess CO₂ from the atmosphere are so far costly and ineffective, but may be necessary to meet the Paris Agreement’s 1.5 C target. However, marine-based technologies may disrupt seafloor habitats, alter ocean chemistry and disrupt the natural carbon cycle in unpredictable ways.

The largest uncertainties in future climate projections stem from potential changes in ocean circulation and biological activity that could reduce the ocean sink efficiency. Even if emissions are stopped, a substantial fraction (20 to 40 per cent in some models) of emitted CO₂ will remain in the atmosphere for a millennium or longer, persisting until slow geological processes complete the sequestration.

If deep-sea carbon sinks were to weaken due to these climate-induced changes, CO₂ would accumulate faster in the atmosphere, making the 1.5 target significantly more difficult to achieve. Therefore, the deep ocean’s capacity determines the long-term fate of CO₂ and the ultimate success of the Paris Agreement’s targets.

Acting without a precautionary approach and failing to incorporate Indigenous values could further damage marine ecosystems and increase inequalities. In addition, failing to establish appropriate protocols for research ethics, project implementation and scientific assessments could result in negative outcomes in terms of CO₂ sequestration.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. The deep sea and the Arctic must be included in efforts to tackle climate change – https://theconversation.com/the-deep-sea-and-the-arctic-must-be-included-in-efforts-to-tackle-climate-change-269581

Budget fédéral 2025 : le « Canada fort » est-il en réalité faible en matière d’IA ?

Source: The Conversation – in French – By Nicolas Chartier-Edwards, PhD student, Politics, Science and Technology, Institut national de la recherche scientifique (INRS)

Le gouvernement de Mark Carney a présenté son premier budget officiel, intitulé Un Canada Fort. Il se présente comme une feuille de route des investissements réalisés pour renforcer la souveraineté nationale par la productivité économique et la défense nationale. Au cœur de ces efforts se trouve l’intelligence artificielle.

Les technologies fortement axées sur l’IA ont été identifiées par huit agences fédérales dans le budget 2025 comme un moyen de réduire les dépenses opérationnelles tout en stimulant la productivité.

De nombreux investissements du budget visent à développer l’industrie de la défense par la création et la commercialisation de ce qu’on appelle des technologies à double usage — des biens, logiciels et technologies pouvant être utilisés à la fois à des fins civiles et militaires — ce qui peut également inclure l’IA.

Mais le Canada Fort est-il, en fait, faible en IA ?

Compte tenu du paysage législatif actuel et du nouveau budget, nous soutenons que le plan d’IA d’Un Canada fort minimise la réglementation et la mise en place de garde-fous, puisque le financement est principalement orienté vers l’adoption de l’IA. Il néglige les risques, les impacts et les potentielles faiblesses qui accompagnent une dépendance excessive à ces technologies.

Historique des budgets passés

Indirectement, le gouvernement canadien a constamment soutenu la recherche en IA par l’intermédiaire des organismes subventionnaires fédéraux, de la Fondation canadienne pour l’Innovation et de l’Institut canadien pour la Recherche avancée.

Entre 2006 et 2015, le gouvernement du premier ministre Stephen Harper a investi plus de $13 milliards dans la science, la technologie et l’innovation durant son mandat.

Le gouvernement de Justin Trudeau a modifié la manière dont l’IA était présentée aux citoyens du pays et la façon dont elle était financée. Le budget de 2017, intitulé Bâtir une classe moyenne forte a fait les premières références explicites à l’IA dans un budget fédéral, la décrivant comme représentant une force transformatrice pour l’économie canadienne.

Le gouvernement a mis l’accent sur « l’avantage du Canada en matière d’intelligence artificielle », qui, selon lui, pouvait se traduire par « une économie plus innovante, une croissance économique plus forte et une amélioration de la qualité de vie des Canadiens ».

Bill Morneau, ministre des Finances de l’époque, a proposé de financer les Supergrappes d’IA et d’allouer 125 millions de dollars pour établir la première Stratégie pancanadienne en intelligence artificielle.

Cet engagement envers l’IA a été réaffirmé dans le budget de 2021, lorsque la technologie a été présentée comme « l’une des transformations technologiques les plus significatives de notre époque ». Les investissements du gouvernement fédéral dans ce secteur ont été décrits comme essentiels pour garantir que l’économie en profite, et que la position de force du Canada permette « l’intégration des valeurs canadiennes dans les plates-formes mondiales ».

Le gouvernement a renouvelé la Stratégie pancanadienne d’IA avec 368 millions de dollars supplémentaires. Un montant additionnel de 2,4 milliards de dollars a été engagé dans le budget de 2024, mettant l’accent sur « l’utilisation sécuritaire et responsable » de l’IA, notamment grâce à la création de nouvelles normes et à l’établissement de l’Institut canadien de la sécurité de l’intelligence artificielle.

La question de la souveraineté

Le budget 2025 marque un autre changement substantiel dans l’approche du Canada concernant l’IA. Cette troisième phase de financement met l’accent sur l’adoption, la productivité, la souveraineté et le principe fondamental du double usage — à la fois civil et militaire.

Mais nous ne croyons pas qu’il favorise la recherche et les projets portant sur les enjeux clés liés à l’IA. Il amplifie plutôt un langage promotionnel.

Nous croyons que l’adoption à grande échelle de l’IA dans les ministères et agences fédéraux (comme l’Agence du revenu du Canada, Emploi et Développement social Canada, Pêches et Océans Canada, Services publics et Approvisionnement Canada, Statistique Canada, Ressources naturelles Canada et Patrimoine canadien) réduira en réalité la capacité à développer des réglementations, à concevoir des garde-fous, à mener des délibérations éthiques et à garantir une participation significative de la société civile, parce que son intégration généralisée imprégnera l’ensemble de la bureaucratie.

L’IA présentée comme moteur économique — à travers la réduction des coûts et les applications à double usage — est devenue le nouveau récit promotionnel du gouvernement.




À lire aussi :
What are Canada’s governing Liberals going to do about AI?


La faiblesse en IA du Canada fort

Quelles vulnérabilités émergent lorsque l’IA est déployée de manière agressive au sein de la fonction publique ? Depuis l’abandon de la loi sur l’Intelligence artificielle et les données, l’approche canadienne de la gouvernance de l’IA repose davantage sur des normes et standards que sur l’État de droit.

Cet environnement pourrait transformer un avantage perçu en matière d’IA en une véritable faiblesse. Cela est particulièrement vrai compte tenu de la dépendance excessive du gouvernement envers des logiciels étrangers (comme Microsoft CoPilot) et des matériels étrangers (comme les puces NVIDIA nécessaires aux superordinateurs), d’un manque de compréhension complète des technologies déjà utilisées par les différentes agences et de l’absence de lignes directrices sur les armes autonomes létales — des systèmes d’armes capables de rechercher, identifier et attaquer des cibles sans intervention humaine directe.

Promouvoir la création rapide de régulations ainsi que l’adoption à tout prix de l’IA dans un budget centré sur le soutien à la recherche, au développement, à la commercialisation et à la mise en œuvre de technologies à double usage risque de négliger plusieurs écueils de l’IA, notamment :

La promotion de l’IA comme un avantage économique — par l’automatisation de l’administration publique et le double usage militaire — dans un environnement non réglementé et sans financement dédié à la surveillance risque de perturber des secteurs et des services essentiels au maintien de la démocratie canadienne, fondement même d’un Canada Fort.

La Conversation Canada

Nicolas Chartier-Edwards a reçu des financements du Conseil de recherches en sciences humaines du Canada.

François-Olivier Picard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Budget fédéral 2025 : le « Canada fort » est-il en réalité faible en matière d’IA ? – https://theconversation.com/budget-federal-2025-le-canada-fort-est-il-en-realite-faible-en-matiere-dia-270022

Les tourbières sont essentielles pour nos écosystèmes, mais elles sont peu considérées et peu étudiées

Source: The Conversation – in French – By Scott J. Davidson, Assistant Professor in Wetland Carbon Dynamics, Groupe de recherche interuniversitaire en limnologie (GRIL), Université du Québec à Montréal (UQAM)

Les tourbières comptent parmi les écosystèmes les plus importants au monde, mais sont souvent peu considérées. Bien qu’elles ne couvrent qu’une petite partie de la surface terrestre, ces zones humides abritent les sols les plus riches en carbone de la planète.

Des tourbières en bonne sa nté influencent les cycles hydrologiques, favorisent une biodiversité unique et soutiennent les communautés. Malgré leur importance, nous ne disposons toujours pas d’une vision claire de leur évolution au fil du temps.

Lorsqu’elles sont asséchées, dégradées ou brûlées, les tourbières libèrent le carbone qu’elles contiennent dans l’atmosphère. Depuis 1700, l’être humain a drainé plus de trois millions de kilomètres carrés de zones humides, ce qui signifie que nous avons perdu un potentiel de séquestration du carbone considérable à l’échelle mondiale. La compréhension et la préservation des tourbières encore présentes revêtent d’autant plus d’importance.

Jusqu’ici, les recherches sur les tourbières se sont concentrées sur quelques sites bien documentés, souvent situés dans des régions tempérées ou boréales. Cependant, les changements climatiques, les pressions liées à l’utilisation des terres et les conditions météorologiques extrêmes affectent les tourbières partout, y compris dans des régions éloignées, tropicales et peu étudiées.

Pour prédire l’évolution de ces milieux, nous avons besoin de données fréquentes sur différents types d’habitats tourbeux qui permettent de suivre leur transformation au fil des saisons et des années.

Pour notre étude récente, nous avons eu recours à la participation citoyenne, à des technologies facilement accessibles et à un réseau de recherche afin de réunir des données selon une approche de données distribuées. Les informations sont recueillies selon une méthodologie standardisée : où qu’il se trouve, chacun collecte des données similaires en utilisant les mêmes méthodes.

 un petit plan d'eau entouré d'une zone humide verdoyante
La tourbière de la Grande plée Bleue, située près de Québec. Pour prédire l’évolution des tourbières, les chercheurs ont besoin de données fréquentes sur différents types d’habitats tourbeux qui permettent de suivre leur transformation au fil des saisons et des années.
(Scott J Davidson)

Suivre les changements

Intitulée The PeatPic Project, notre étude a utilisé la photographie par téléphone intelligent pour amasser des données. Nous avons pris contact avec des chercheurs spécialisés dans les tourbières d’un peu partout, via les réseaux sociaux et le bouche-à-oreille, et leur avons demandé de collecter des images de leurs tourbières en 2021 et 2022. Nous avons ainsi recueilli plus de 3 700 photographies provenant de 27 tourbières situées dans 10 pays.

Nous avons analysé ces photographies afin d’étudier la couleur des plantes et de déterminer leur degré de verdure tout au long de l’année, ce qui nous a permis d’obtenir des informations précieuses sur la végétation. Les changements dans la couleur verte des feuilles permettent de reconnaître le moment où les plantes commencent leur saison de croissance.




À lire aussi :
Protéger et cultiver les tourbières pour limiter le réchauffement climatique


Ces transformations indiquent également le degré de verdure ou de santé des plantes, la quantité de nutriments qu’elles absorbent, ainsi que le moment où elles brunissent à l’automne. Elles peuvent aussi signaler des variations dans les conditions d’humidité ou de nutriments, un stress thermique ou des perturbations.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Ce type de travaux, menés par une communauté mondiale de chercheurs, élargit la portée des données. Des observateurs locaux peuvent enregistrer les changements saisonniers, les niveaux d’eau, la couleur ou la couverture végétale, l’utilisation des terres ou les perturbations à l’aide de leur téléphone. Grâce à une formation, à des protocoles normalisés, à des métadonnées de qualité et à la validation, la communauté peut générer des données fiables. Ces méthodes permettent de réduire les coûts, d’augmenter la quantité de données mises à la disposition des scientifiques et de renforcer la gestion locale ainsi que les réseaux mondiaux.

gros plan d'une plante avec de petites feuilles rondes vertes
Les plantes de petite taille des tourbières (photo d’une tourbière du Minnesota) sont difficiles à capturer grâce à la télédétection, mais un échantillonnage distribué à l’aide de photos prises avec un téléphone permet de le faire.
(Avni Malhotra)

Des prévisions plus fiables sur le fonctionnement des tourbières ne concernent pas seulement les chercheurs, elles sont essentielles pour atténuer les effets des changements climatiques, protéger la biodiversité, garantir la qualité de l’eau et réduire les risques liés aux catastrophes telles que les incendies et les sécheresses.

Les informations tirées d’images peuvent être converties en représentations mathématiques du comportement des plantes, puis ajoutées aux jumeaux numériques des tourbières.

Grâce à ces jumeaux, les experts peuvent simuler des scénarios hypothétiques. Par exemple, que se passe-t-il si le drainage augmente après un incendie de forêt ou si l’on entreprend une opération de restauration ? Cependant, pour construire des jumeaux numériques utiles, il faut détenir des données sur tous les biomes, toutes les saisons et à toutes les échelles.

Et la suite ?

Nous disposons désormais d’outils et de technologies facilement accessibles qui nous permettent de surveiller les tourbières comme jamais auparavant. Toutefois, pour aller plus loin, il faut agir sur plusieurs fronts :

Les réseaux de recherche doivent élaborer, diffuser et adopter des protocoles et des pratiques standardisés afin que les données provenant de différents endroits et sources puissent être combinées, comparées et mises à l’échelle.

Les populations locales peuvent prendre part à l’observation. La formation, la co-conception, l’équité et la reconnaissance sont essentielles. Les observations locales grâce, notamment, à des photographies prises avec des téléphones, peuvent alimenter le processus décisionnel.




À lire aussi :
Les terres fertiles du Québec sont en péril. Une découverte scientifique pourrait renverser la vapeur


Le public peut participer en soutenant les politiques qui financent ces travaux, en collaborant à des initiatives scientifiques locales et en sachant que de simples photos d’un téléphone intelligent peuvent grandement contribuer à la compréhension du fonctionnement de notre planète.

Le projet PeatPic nous a inspirés pour créer une autre initiative scientifique communautaire intitulée Tracking the Colour of Peatlands (Suivre l’évolution de la couleur des tourbières). Ce projet concerne 16 tourbières situées dans le monde entier et invite le public à prendre des photos à différents moments de l’année à des points fixes afin de dresser un tableau des changements subis par l’écosystème au fil des saisons.

Les tourbières ne sont pas des écosystèmes isolés. Elles sont importantes pour les populations, le climat, l’eau et la biodiversité. Grâce à la collecte de données distribuées à l’échelle mondiale et à des outils accessibles tels que les téléphones intelligents, nous pouvons observer l’évolution des tourbières, prévoir les zones les plus menacées et agir avant qu’une crise ne survienne.

L’avenir des tourbières, ainsi que celui des cycles du carbone et de l’eau sur Terre, dépend de notre capacité à observer, enregistrer, diffuser et agir ensemble face aux phénomènes actuels.

La Conversation Canada

Scott J. Davidson reçoit un financement du ministère de l’Environnement du Québec. Il est membre du Groupe de recherche interuniversitaire en limnologie (GRIL), un réseau financé par le FRQNT.

Les recherches d’Avni Malhotra ont été soutenues par le Fonds national suisse de la recherche scientifique.

ref. Les tourbières sont essentielles pour nos écosystèmes, mais elles sont peu considérées et peu étudiées – https://theconversation.com/les-tourbieres-sont-essentielles-pour-nos-ecosystemes-mais-elles-sont-peu-considerees-et-peu-etudiees-267721

Sainte-Soline, gilets jaunes, retraites : comment les manifestants ont revu leur organisation face à la répression policière

Source: The Conversation – France in French (3) – By Elise Lobbedez, Assistant professor, Neoma Business School

Les vidéos de la manifestation contre la mégabassine de Sainte-Soline (Deux-Sèvres) en 2023 récemment publiées par « Médiapart » mettent en lumière la violence de la répression qui y a été exercée par les forces de l’ordre envers les manifestants. Loin d’être isolé, cet épisode s’inscrit dans une transformation profonde des pratiques de gestion des manifestations en France depuis deux décennies, marquée par une logique de remilitarisation du maintien de l’ordre et de judiciarisation croissante des mouvements sociaux. Face à ce tournant répressif, comment s’organisent les militants ?


À l’échelle de plusieurs mobilisations françaises (gilets jaunes, manifestations contre la réforme des retraites, « Bloquons tout »…), on remarque une généralisation de la mise en place de fonctions « support » du côté des manifestants : équipes juridiques, personnes chargées de la documentation des violences subies, street medics (médecins de rue), formation aux premiers secours, etc.

Dans cette lignée, un dispositif de soutien nommé « base arrière » est conçu pour le rassemblement de Sainte-Soline (Deux-Sèvres), en réponse à des manifestations antérieurement réprimées. Une équipe juridique s’organise en mars 2022, lors du Printemps maraîchin contre les mégabassines. En rendant accessible des ressources juridiques pour les militants, celle-ci constitue un maillon important du soin en manifestation. Elle aide à protéger de l’épuisement émotionnel et psychologique lié aux procédures judiciaires, souvent longues, stressantes, et financièrement coûteuses, d’autant plus lorsqu’on les affronte seul. Le soutien psychologique, lui, se structure à la suite des affrontements lors de la première manifestation à Sainte-Soline, en octobre 2022.

Sur le terrain, ces équipes assurent la prise en charge des personnes arrêtées ou blessées. Mais leur action ne se limite pas aux urgences : avant le rassemblement, elles font de la prévention. Par exemple, le pôle médical propose des recommandations pour l’équipement à apporter, conseillant d’amener des masques et des lunettes de protection contre les gaz lacrymogènes tout en partageant des astuces pour en limiter leurs effets (mélange à base de Maalox ou citron). De leur côté, les juristes identifient des avocats disponibles pour soutenir les personnes interpellées, et diffusent leur contact ainsi que des réflexes à adopter en cas d’arrestation.

Des pratiques éminemment politiques

Avec le mouvement des gilets jaunes et l’adoption d’une doctrine de maintien de l’ordre plus offensive, de nouveaux acteurs, souvent professionnels de santé, émergent partout sur le territoire pour prodiguer des soins en manifestation. Ceux-ci adoptent souvent une posture de secouristes volontaires apartisans, proche du devoir humanitaire, et prennent en charge tous les blessés : militants, journalistes mais aussi policiers.

Au contraire, la « base arrière » de Sainte-Soline incarne une réflexion explicitement politique sur la mise en œuvre du soin dans les mouvements sociaux, en réponse à la répression accrue. De la sorte, elle s’inscrit dans l’approche historique des street medics.

Apparus en France dans les années 2010 lors de l’occupation de la zone à défendre de Notre-Dame-des-Landes (Loire-Atlantique), ces derniers sont à l’origine proches des mouvances anarchistes et de gauche, loin de cette neutralité revendiquée. Les fonctions support de la « base arrière » sont alors pensées comme des pratiques militantes, qui s’inscrivent dans une dynamique de soin engagé et d’autodéfense qui vise à assurer avant tout la protection des manifestants. Les membres des équipes rappellent d’ailleurs être présents « en soutien aux camarades qui manifestent ».

Ensuite, le mouvement promeut une posture partagée, où le soin n’est pas délégué à des experts. L’objectif est ici de rendre possible une certaine autonomisation, notamment dans un contexte où il peut être difficile ou risqué d’accéder au soin dispensé par les institutions. Cela peut par exemple être lorsque des médecins transmettent aux ministères de l’intérieur ou de la justice des fichiers recensant les identités et descriptions de blessés en manifestation. Par ailleurs, une approche collective évite de recréer des relations asymétriques et des hiérarchies entre soignants, ceux qui détiennent le savoir et le pouvoir de décision, et soignés, qui sont en position de dépendance sans toujours comprendre les choix.

Enfin, les organisateurs tentent d’étendre cette culture du soin à d’autres aspects de la mobilisation. Une garderie autogérée, un pôle dévalidiste (pour lutter contre les discriminations et faciliter la participation des personnes en situation de handicap), et un dispositif consacré aux violences sexistes et sexuelles sont, par exemple, mis en place pour permettre au plus grand nombre de participer, quelles que soient ses contraintes.

De surcroît, l’information circule sous de multiples formats (flyers, briefings oraux, lignes téléphoniques, etc.). Elle est traduite en plusieurs langues, pour que tout le monde puisse y avoir accès. Il y a donc une attention particulière portée à l’inclusivité des dispositifs et une volonté d’insuffler une responsabilité commune. Ainsi, le pôle psychoémotionnel souligne vouloir se détacher des « cultures militantes […] virilistes qui glorifient un certain rapport à la violence » et permettre à chacun de demander de l’aide en cas de besoin sans se sentir faible.

Les défis d’une approche politique du soin en contexte répressif

Développer une culture du soin partagée et inclusive pose néanmoins de nouvelles questions. Un premier défi est celui du suivi du soin après les manifestations : comment faire en sorte de garantir une continuité dans le soin à l’échelle des groupes locaux après un rassemblement ? Sous quelles modalités ? Et comment s’assurer que des personnes plus isolées puissent en bénéficier ?

Dans mes recherches en cours, certains militants racontent avoir bénéficié d’un soutien psychologique collectif qui a joué un rôle crucial pour digérer leurs vécus. C’est le cas de Thérèse qui explique :

« Ça nous a permis de faire en sorte que notre cerveau qui avait été vraiment malmené puisse se dire “Voilà, ça s’est passé comme ça. C’est une réalité, c’est pas du délire. Je peux dire très précisément que Darmanin a cherché à nous bousiller avec sa force armée”. »

Cependant, d’autres personnes racontent ne pas avoir bénéficié d’une telle expérience, comme le soulignent mes entretiens avec Katia, puis avec Chloé. La première me dit ne pas avoir participé aux événements de soin collectif après la manifestation et s’être reposée plutôt sur ses proches. La seconde exprime s’être « sentie très très seule après » et pas toujours à sa place dans les espaces de discussion. Plusieurs personnes interrogées expliquent aussi ne pas avoir rejoint les moments de soutien car habitant loin des centres urbains. D’autres soulignent ne pas s’être sentis légitimes pour utiliser les dispositifs existants, car certains militants en auraient eu plus besoin qu’eux, notamment les blessés graves.

La manifestation de Sainte-Soline (Deux-Sèvres), le 25 mars 2023, filmée par les caméras-piétons des gendarmes.

Un autre défi de taille pour l’avenir des mobilisations est celui du soin des soignants, qui peuvent vite se retrouver débordés. Plusieurs membres des équipes rapportent avoir été physiquement et mentalement traumatisés de leur expérience, parfois sous le choc pendant plusieurs jours après l’événement. C’est aussi un constat que Vincent, un manifestant présent à Sainte-Soline et proche des équipes de street medics, fait lors de notre entretien :

« J’ai échangé avec les copains qui étaient « medics » là-bas. Je pense qu’eux, ils auraient eu besoin d’un soutien psy derrière parce qu’ils étaient vraiment choqués ».

À l’aune des révélations sur la manifestation de Sainte-Soline, la répression semble s’imposer comme un enjeu crucial des luttes sociales et environnementales. Alors que de nombreux manifestants sont prêts à accepter le risque de s’exposer à des gaz lacrymogènes voire à de potentielles blessures, le soin ne peut pas rester un impensé.

The Conversation

Elise Lobbedez ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sainte-Soline, gilets jaunes, retraites : comment les manifestants ont revu leur organisation face à la répression policière – https://theconversation.com/sainte-soline-gilets-jaunes-retraites-comment-les-manifestants-ont-revu-leur-organisation-face-a-la-repression-policiere-269632

Philippe Aghion, le Nobel d’économie qui s’inscrit dans une tradition française valorisant les liens entre économie, société et institutions

Source: The Conversation – in French – By Patrick Gilormini, Economie & Management, ESDES – UCLy (Lyon Catholic University)

Si les travaux de Philippe Aghion sur « la théorie de la croissance durable à travers la destruction créatrice » s’inscrivent dans la lignée de Schumpeter, ils se situent aussi dans une tradition bien française. En effet, la pensée du récent Prix Nobel d’économie valorise les liens entre économie, société et institutions, comme l’ont fait avant lui Saint-Simon ou, plus récemment, François Perroux.


Le 13 octobre 2025, l’Académie royale des sciences de Suède a décerné le prix de la Banque de Suède en sciences économiques en mémoire d’Alfred Nobel à l’économiste français Philippe Aghion, ainsi qu’à Peter Howitt et Joel Mokyr. Ainsi sont récompensés leurs travaux sur l’impact des nouvelles technologies sur la croissance économique.

Philippe Aghion et Peter Howitt ont été parmi les premiers à modéliser l’idée originale de Joseph Schumpeter du processus de destruction créatrice. Dans cette perspective, les progrès de la science conduisent à l’apparition et à la diffusion de nouvelles idées, de nouvelles technologies, de nouveaux produits, de nouveaux services, de nouveaux modes d’organisation du travail qui ont pour effet de remplacer, plus ou moins brutalement, ce qui avait cours avant elles. Ces nouveautés ont pour origine la concurrence que se livrent les entreprises, chacune désirant être la première à introduire et exploiter son innovation.

Favoriser la destruction créatrice

À la suite de Joseph Schumpeter, Philippe Aghion fait partie des économistes français, qui, tels Henri Saint Simon (1760-1825) au XIXe siècle, ou François Perroux (1903-1987) au XXe siècle, ont mis en évidence le rôle de l’innovation, de l’entrepreneur et du crédit dans la dynamisme du capitalisme.




À lire aussi :
Emmanuel Macron a-t-il eu un moment saint-simonien ?


Philippe Aghion analyse dans ses travaux, la corrélation positive entre la croissance du niveau de vie (PIB par habitant) et le taux de destruction créatrice, mesuré par l’écart entre le taux de création et de taux de destruction d’entreprises.

Philippe Aghion estime que les pouvoirs publics doivent favoriser ce processus de destruction créatrice par l’innovation. L’État doit, d’une part, développer avec le secteur privé un ensemble d’infrastructures publiques de qualité, afin d’accéder aux savoirs nouveaux, fer de lance des nouvelles technologies. Au-delà de l’effort financier dans le domaine de l’enseignement et de la recherche, l’appétence pour l’entrepreneuriat et le risque, l’aptitude à apprendre de ses échecs, les partenariats public-privé, doivent être soutenus.

Accompagner les chômeurs

D’autre part l’État doit corriger les effets négatifs à court terme de la destruction créatrice. En effet, l’écart temporel entre l’arrivée d’une innovation et sa diffusion dans les différents secteurs d’activité engendre du chômage avant que l’innovation n’alimente de nouvelles embauches. Les pouvoirs publics, dans cette vision, doivent s’attacher au traitement du chômage issu de la destruction créatrice. Pour cela, ils doivent assurer la flexibilité et la sécurité du marché du travail, ceci en combinant indemnisation du chômage et développement de la formation professionnelle. Ainsi, pour maximiser l’impact positif de l’intelligence artificielle sur l’emploi, Philippe Aghion estime nécessaire d’améliorer aujourd’hui notre système éducatif et de mettre en place des politiques de « flexisécurité » à l’image de celles en vigueur au Danemark.

La pensée de François Perroux s’inspire, comme celle d’Aghion, de Joseph Schumpeter, sur plusieurs points fondamentaux, tout en développant ensuite une approche originale de l’économie au service de l’homme. Perroux reprend ainsi cette idée de schumpeterienne du rôle central de l’innovation en soulignant que le développement économique ne résulte pas d’un simple équilibre des marchés, mais d’un processus dynamique, déséquilibrant, impulsé par des « foyers d’innovation » ou des « centres de décision ».

L’État, un entrepreneur ?

Perroux s’inscrit dans une vision dynamique d’un capitalisme en perpétuelle transformation. Il insiste notamment sur les asymétries de pouvoir et les inégalités spatiales dans le développement, ce qui l’amène à formuler sa théorie des pôles de croissance. Perroux reprend cette figure de l’entrepreneur schumpetérien, innovateur et agent de rupture, mais l’élargit. Selon lui, les agents moteurs du développement peuvent être aussi bien des entreprises que des institutions ou des États, capables de concentrer et diffuser l’innovation.

Aghion comme Perroux, influencés par Schumpeter, critiquent la théorie de l’équilibre général néoclassique harmonieux de Léon Walras (1834-1910). À la place, ils développent une économie des déséquilibres, où le développement est un processus conflictuel, inégal, et souvent polarisé.

François Perroux s’est inspiré de Joseph Schumpeter en adoptant une vision dynamique, déséquilibrée et innovante du développement économique. Toutefois, il enrichit cette perspective en y intégrant des dimensions spatiales, institutionnelles et de pouvoir, ce qui le distingue nettement de son prédécesseur.

Œuvre collective

C’est sur ces dimensions qu’il fut notamment inspiré par l’industrialisme de Saint-Simon. Saint-Simon proposait une société dirigée par les plus compétents (industriels, scientifiques, artistes), selon des principes rationnels et fonctionnels. Perroux reprend cette idée en insistant sur la nécessité d’une planification économique fondée sur des vecteurs de développement (comme les pôles de croissance), plutôt que sur des institutions politiques traditionnelles.

Par ailleurs, Perroux reprend à Saint-Simon l’idée selon laquelle l’industrie est une œuvre collective, orientée vers le bien commun. Il voit dans l’organisation industrielle non seulement un moteur économique, mais aussi un vecteur de transformation sociale, capable de structurer la société autour de la coopération autant que de la compétition. Perroux s’inspire de Saint-Simon pour développer une philosophie du dialogue et une approche non antagoniste de la socialisation. Il privilégie les luttes non violentes et les dynamiques de coopération entre les acteurs économiques.

Saint-Simon proposait, par ailleurs, une société dirigée par les plus compétents (industriels, scientifiques, artistes), selon des principes rationnels et fonctionnels. Perroux approfondit cette idée en insistant sur la nécessité d’une planification économique fondée sur des vecteurs de développement (comme les pôles de croissance), plutôt que sur des institutions politiques traditionnelles.

Nécessaire bonne gouvernance

L’insistance sur la politique industrielle se retrouve aujourd’hui chez Aghion pour qui celle-ci dépend beaucoup moins des moyens des pouvoirs publics que de la bonne gouvernance. Le rôle des savants et de ceux que nous appelons aujourd’hui les « experts » dans la politique économique était une thématique constante chez Saint-Simon.

Philippe Aghion accorde de l’importance aux institutions, à la concurrence, à la politique industrielle et à la mobilité sociale dans le processus de croissance. Quatre points de convergence avec le saint-simonisme peuvent être mentionnés sur le progrès technique, le rôle des producteurs, le rôle des institutions et la vision sociale d’un capitalisme régulé. Si nous ne pouvons pas parler d’influence directe c’est bien l’environnement intellectuel français qui marque Aghion qui, comme Perroux de 1955 à 1976, enseigne aujourd’hui au Collège de France.

The Conversation

Patrick Gilormini est membre de la CFDT

ref. Philippe Aghion, le Nobel d’économie qui s’inscrit dans une tradition française valorisant les liens entre économie, société et institutions – https://theconversation.com/philippe-aghion-le-nobel-deconomie-qui-sinscrit-dans-une-tradition-francaise-valorisant-les-liens-entre-economie-societe-et-institutions-269643

Brésil : la dimension politique du massacre de Rio

Source: The Conversation – in French – By Gabriel Feltran, Sociologie, directeur de recherche au CNRS rattaché au CEE de l’IEP de Paris, Sciences Po

Au moins 121 personnes ont été tuées lors d’une gigantesque opération de police qui a tourné au massacre, le 28 octobre, à Rio de Janeiro. Les violences policières de masse ne sont pas un phénomène nouveau au Brésil, cependant, cette fois, on observe qu’elles sont présentées par les autorités les ayant organisées non plus comme une simple intervention sécuritaire, mais pratiquement comme une victoire civilisationnelle du « bien contre le mal ».


Le 28 octobre dernier, un nouveau carnage a eu lieu à Rio de Janeiro. Cette opération policière menée contre un groupe criminel, le Comando Vermelho, est devenue la plus meurtrière de l’histoire du Brésil : elle a fait au moins 121 morts dans les rues de deux favelas.

J’étudie les événements de ce type depuis près de trois décennies. Certains de ces massacres sont devenus des blessures nationales : c’est notamment le cas du carnage de Carandiru en 1992, lorsque la police a exécuté 111 prisonniers après une mutinerie, et des crimes de mai 2006 que j’ai suivis lorsque je réalisais mon terrain de doctorat. La police de Sao Paulo avait alors tué au moins 493 civils en une semaine, en représailles à la mort de 45 de ses agents survenue dans une seule nuit, ordonnée par le Primeiro Comando da Capital (premier commandement de la capitale, PCC). J’étudiais déjà cette fraternité criminelle qui était alors en pleine expansion et qui est devenue aujourd’hui la plus grande organisation du monde du crime en Amérique latine.

À l’époque, ce qui m’avait frappé c’était l’ampleur industrielle de ces événements sporadiques. Avec le temps, j’ai réalisé que les spectacles de violence massive étaient liés à une répétition silencieuse des morts du même profil, mais à petite échelle, dans la routine. Pour la seule année 2024, le ministère brésilien de la justice a enregistré 6 014 personnes officiellement tuées par des policiers, sur un total d’environ 45 000 homicides et 25 000 disparitions dans tout le pays. À titre de comparaison, sur l’ensemble des années 2023 et 2024, la police britannique a abattu deux personnes.

Qui trouve la mort dans ces tueries ?

En réfléchissant à mon ethnographie, j’ai constaté que tant les carnages spectaculaires que les homicides routiniers frappaient pratiquement toujours les mêmes victimes : de jeunes hommes pauvres et racisés qui, comme je l’ai progressivement compris, avaient été recrutés comme exécutants au service des marchés illégaux. Leurs pairs présentant un profil similaire, mais non impliqués dans ces activités, n’étaient pas exposés à cette forme de violence.

Selon l’Atlas de la violence 2025 publié par le Forum brésilien de la sécurité publique, la grande majorité des victimes de l’usage de la force létale par la police sont des hommes (91,1 %) et des Noirs (79 %). Près de la moitié (48,5 %) avaient moins de 30 ans. La plupart ont été tués par arme à feu (73,8 %) et plus de la moitié (57,6 %) sont morts dans des lieux publics.

Ces jeunes étaient engagés pour vendre de la drogue, assurer une protection informelle ou commettre de petits délits. Beaucoup d’entre eux avaient été mes interlocuteurs réguliers pendant ma recherche, et j’ai assisté à leurs funérailles, qui se tiennent toujours dans un grand silence, car leurs morts sont considérées comme des morts de bandits.

Mon intérêt sociologique pour cette violence n’a jamais été motivé par la mort elle-même. Je ne trouve aucun intérêt aux documentaires sur les tueurs en série ou les psychopathes. En revanche, je m’intéresse beaucoup aux formes violentes et non létales d’expression politique : les émeutes, les soulèvements et les explosions d’indignation. La coercition étatique contre cette violence retient également mon attention depuis des décennies.

C’est sous cet angle que j’examine le massacre de Rio : il s’agit d’une violence aux effets politiques immédiats. Un événement critique qui remet en cause les fondements de l’autorité de l’État et donc les contours de la vie quotidienne à venir.

Une légitimité nouvelle de la violence

Malgré le profil répétitif des victimes, les répercussions politiques du massacre de Rio ont été radicalement nouvelles. Lorsque j’ai commencé mes recherches dans les favelas, ces meurtres étaient perpétrés par des escadrons masqués. Le discours public insistait sur le fait que les groupes d’extermination n’avaient rien à voir avec les policiers, et condamnait toute action hors de la loi.

Or le 28 octobre, à Rio de Janeiro, il n’y a eu ni masques ni ambiguïté. Après le massacre, le gouverneur s’est présenté devant les caméras, entouré de ses secrétaires, et a célébré le succès de l’opération, qui a également coûté la vie à quatre policiers – une proportion de policiers tués par rapport aux « criminels » éliminés près de deux fois supérieure à la moyenne nationale. En 2024, 170 policiers ont été tués au Brésil, soit 2 % des 6 000 personnes décédées après l’utilisation de la force létale par la police.

Le politicien a parlé d’action planifiée, d’efficacité, de rétablissement de l’État de droit. Dans un pays où 99,2 % des meurtres commis par la police ne feront jamais l’objet d’une enquête officielle, un tel ton jubilatoire ne devrait pas me surprendre, mais c’est pourtant le cas.

Au cours de l’interview, le gouverneur a annoncé que cinq autres gouverneurs d’extrême droite – rappelons que le Brésil est une fédération et que la sécurité publique relève de la responsabilité des États ; les gouverneurs de chaque État peuvent décider de leur politique de sécurité indépendamment du gouvernement fédéral – se rendraient à Rio le lendemain pour le féliciter, partageant ainsi une propagande électorale écrite avec du sang. Leurs réseaux politiques s’inspirent de Nayib Bukele, le président du Salvador, devenu le parrain de la propagande politique par le massacre. Une partie de la presse a salué cette action, et les sondages d’opinion ont montré un soutien massif de la population.

Cette fois-ci, le massacre n’a pas été présenté comme une nécessité tragique contre une organisation criminelle, mais comme un acte vertueux, point final. Des consultants en marketing politique sont apparus sur YouTube pour annoncer que le gouverneur avait habilement occupé un espace politique vide et s’imposer comme l’homme fort de la droite brésilienne. En réalité, les soldats morts des deux côtés seront remplacés le lendemain, et le cœur de l’organisation criminelle visée reste intact, comme cela s’est produit à plusieurs reprises au cours des quarante dernières années.

La légitimation de la terreur au Brésil n’a pas tardé. Le lendemain du massacre, un projet de nouvelle législation antiterroriste a été présenté à la Chambre des députés, élargissant nettement la définition de « terroriste », qui s’applique désormais aux personnes soupçonnées de trafic de drogue, a été présenté à la Chambre des députés. Lorsque l’on passe de l’explosion violente aux processus sociaux ordinaires, la terreur contre les favelas apparaît comme un mode de gouvernance de plus en plus légitime, et non comme une déviation.

L’échec à long terme de la politique de terreur

Après le massacre, on a vu les politiciens brésiliens arriver avec leurs rituels symboliques. D’un côté, le gouverneur d’extrême droite triomphait avec son action extrêmement meurtrière. Ses collègues des autres États gouvernés par l’extrême droite, dont Sao Paulo et Minas Gerais, tentent de surfer sur la vague de popularité de la terreur.

De l’autre, on a vu un Lula embarrassé, acculé par le fait que la politique de sécurité relève de la responsabilité des États de la fédération, mais surtout parce qu’il sait qu’il doit faire face à une opinion publique favorable au massacre, douze mois avant l’élection présidentielle de 2026.

La terreur n’est plus seulement un moment d’extrême violence ; avant l’événement, il y a des intentions délibérées et après, des modes de communication politiques professionnels. Si les massacres sont récurrents dans les favelas de Rio, leur légitimation publique est nouvelle. La terreur s’avère politiquement efficace et marque un changement d’hégémonie.

Alors que je commençais mon travail de terrain, dans les années 1990, la terreur s’accomplissait quand il n’y avait pas de punition, mais promotion silencieuse des policiers violents ; quand il n’y avait pas de réparation, mais humiliation cachée des familles des victimes ; quand on ne voyait pas l’interdiction politique de ceux qui mettaient cette terreur en œuvre, mais quelques votes peu assumés en leur faveur.

La situation a désormais changé. L’élection triomphale de ceux qui ordonnent la terreur dans les États et les villes les plus importants du pays est devenue la norme lors des élections pour les gouvernements des 27 États de la fédération, et les législatives de 2022, bien que lors des municipales de 2024. La victoire de justesse de Lula contre Bolsonaro à la présidentielle en 2022 aura pratiquement été la seule exception. Un seul des 27 États qui constituent le pays, Bahia, est gouverné par la gauche… et sa police est la deuxième plus violente du pays.

Les auteurs de la terreur imaginent que la violence met fin à l’histoire, mais il reste toujours quelque chose : le traumatisme, le deuil, la soif de vengeance, la lucidité politique, la mémoire collective, les façons obstinées d’imaginer la paix et le tissu fragile de la vie quotidienne. De ces résidus naissent des chemins divergents : une radicalisation renouvelée ou des pratiques de mémoire et de réconciliation, des mécanismes bureaucratiques ou des forces criminelles insurgées. La vie insiste pour révéler que les vainqueurs sont eux-mêmes des meurtriers, et cette histoire se répète, marquant l’échec à long terme de la terreur malgré sa force immédiate.

The Conversation

Gabriel Feltran ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Brésil : la dimension politique du massacre de Rio – https://theconversation.com/bresil-la-dimension-politique-du-massacre-de-rio-269848

How heat from old coal mines became a source of local pride in this northern English town – new study

Source: The Conversation – UK – By Michael Smith, Associate Professor of Psychology, Northumbria University, Newcastle

In Gateshead, north-east England, a solar park provides electricity for a mine water heat pump that provides district heating. Graeme J Baty/Shutterstock

Around a quarter of UK homes lie on disused coalfields. These abandoned coal mines are flooded with water that is naturally heated by the Earth.

This has enormous potential as a sustainable energy source. Schemes such as the mine water district heat network in Gateshead, in north-east England, are already providing low-carbon, cheaper heat and hot water to residential homes.

To maximise the full potential of this energy source by developing new schemes and expanding existing ones, it is critical that people have trust in new energy systems and are motivated to connect to them. This will speed up the number of homeowners signing up.

Communities built around former coal mines tend to have higher levels of socioeconomic disadvantage compared to other areas of the UK, with more social housing. Mine water district heating is a potential source of cheaper energy for these communities, but social housing residents must be involved in the transition to new, sustainable energy systems. This will ensure a smooth transition and avoid people feeling like new systems are being imposed on them.

In our new research, we interviewed 18 Gateshead residents about what a switch to mine water heating would mean for them.

We spoke to people from a community where homes are scheduled to move from gas heating to the mine water district heat network. Residents told us about their awareness of mine water heat, their motivations to connect and resources which could support them through the transition. We heard from social housing tenants, homeowners, private renters and landlords to understand how specific issues would affect different people’s lives and homes.




Read more:
How mine water could warm up the UK’s forgotten coal towns


Our participants had limited awareness of mine water heat. Only around a third of participants in our study had previously heard of district heat networks. People had a range of incorrect assumptions about how they work. Improving awareness is clearly needed to enable homeowners to make informed decisions about whether to adopt the new technology. This could involve working with residents to design resources to increase their understanding and ensure that the issues most important to residents are addressed.

Residents we interviewed liked the idea of cleaner, greener energy, but many people said cost would be a barrier unless the mine water heat is cheaper than gas. They would happily “do their bit” for the environment, but not if it means higher bills.

angel of the north big steel sculpture on green grass, blue sky with two people walking towards it along path
The Angel of the North sculpture is built on the site of a former colliery and commemorates the region’s coal mining history.
PJ_Photography/Shutterstock

One homeowner, a woman in her 70s, told us: “We like to do our bit with recycling and trying to save on energy costs, but that’s a luxury. If you’re a pensioner, you can’t. You don’t have unlimited resources … it shouldn’t [cost] any more than an ordinary gas boiler.”

The people we spoke to were proud that heat is being produced from old mines. They felt it connected the area’s coal mining heritage to a more sustainable future. Our participants liked the idea of generating energy from the disused mines in the area. When another 38-year-old resident discovered that the heat came from mine water, they said it “feels like a waste that we haven’t been tapping into that sooner”.

Community co-creation

Mine water district heating schemes provide an opportunity to involve communities in their energy futures. Community engagement ensures that people feel network expansion is being done with them, and not to them.

Raising awareness is important, but that isn’t enough to increase trust and acceptance. Addressing incorrect assumptions that sustainable energy will inherently be more expensive for consumers is key.

In Gateshead, there are cost savings through cheaper energy bills and no maintenance costs to the consumer. Communication of this information to consumers is vital to overcome resistance.

Building a narrative linked to the legacy of energy from coal mines can resonate with communities who are proud of their coal mining heritage. However, that needs to be achieved without glorifying mining history, because so many communities were adversely affected by the consequences of mine closures.


Don’t have time to read about climate change as much as you’d like?

Get a weekly roundup in your inbox instead. Every Wednesday, The Conversation’s environment editor writes Imagine, a short email that goes a little deeper into just one climate issue. Join the 47,000+ readers who’ve subscribed so far.


The Conversation

Michael Smith receives funding from Innovate UK and Northern Net Zero Accelerator.

Faye Doughty does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How heat from old coal mines became a source of local pride in this northern English town – new study – https://theconversation.com/how-heat-from-old-coal-mines-became-a-source-of-local-pride-in-this-northern-english-town-new-study-269959

These dinner-plate sized computer chips are set to supercharge the next leap forward in AI

Source: The Conversation – UK – By Luo Mai, Reader at the School of Informatics, University of Edinburgh

It’s becoming increasingly difficult to make today’s artificial intelligence (AI) systems work at the scale required to keep advancing. They require enormous amounts of memory to ensure all their processing chips can quickly share all the data they generate in order to work as a unit.

The chips that have mostly been powering the deep-learning boom for the past decade are called graphics processing units (GPUs). They were originally designed for gaming, not for AI models where each step in their thinking process must take place in well under a millisecond.

Each chip contains only a modest amount of memory, so the large language models (LLMs) that underpin our AI systems must be partitioned across many GPUs connected by high-speed networks. LLMs work by training an AI on huge amounts of text, and every part of them involves moving data between chips – a process that is not only slow and energy-intensive but also requires ever more chips as models get bigger.

For instance, OpenAI used some 200,000 GPUs to create its latest model, GPT-5, around 20 times the number used in the GPT-3 model that powered the original version of Chat-GPT three years ago.

To address the limits of GPUs, companies such as California-based Cerebras have started building a different kind of chip called wafer-scale processors. These are the size of a dinner plate, about five times bigger than GPUs, and only recently became commercially viable. Each contains vast on-chip memory and hundreds of thousands of individual processors (known as cores).

The idea behind them is simple. Instead of coordinating dozens of small chips, keep everything on one piece of silicon so data does not have to travel across networks of hardware. This matters because when an AI model generates an answer – a step known as inference – every delay adds up.

The time it takes the model to respond is called latency, and reducing that latency is crucial for applications that work in real-time, such as chatbots, scientific-analysis engines and fraud-detection systems.

Wafer-scale chips alone are not enough, however. Without a software system engineered specifically for their architecture, much of their theoretical performance gain simply never appears.

The deeper challenge

Wafer-scale processors have an unusual combination of characteristics. Each core has very limited memory, so there is a huge need for data to be shared within the chip. Cores can access their own data in nanoseconds, but there are so many cores on each chip over such a large area that reading memory on the far side of the wafer can be a thousand times slower.

Limits in the routing network on each chip also mean that it can’t handle all possible communications between cores at once. In sum, cores cannot access memory fast enough, cannot communicate freely, and ultimately spend most of their time waiting.

Illustration of a computer chip network
Wafer-scale chips get slowed down by communication delays.
Brovko Serhii

We’ve recently been working on a solution called WaferLLM, a joint venture between the University of Edinburgh and Microsoft Research designed to run the largest LLMs efficiently on wafer-scale chips. The vision is to reorganise how an LLM runs so that each core on the chip mainly handles data stored locally.

In what is the first paper to explore this problem from a software perspective, we’ve designed three new algorithms that basically break the model’s large mathematical operations into much smaller pieces.

These pieces are then arranged so that neighbouring cores can process them together, handing only tiny fragments of data to the next core. This keeps information moving locally across the wafer and avoids the long-distance communication that slows the entire chip down.

We’ve also introduced new strategies for distributing different parts (or layers) of the LLM across hundreds of thousands of cores without leaving large sections of the wafer idle. This involves coordinating processing and communication to ensure that when one group of cores is computing, another is shifting data, and a third is preparing its next task.

These adjustments were tested on LLMs like Meta’s Llama and Alibaba’s Qwen using Europe’s largest wafer-scale AI facility at the Edinburgh International Data Facility. WaferLLM made the wafer-scale chips generate text about 100 times faster than before.

Compared with a cluster of 16 GPUs, this amounted to a tenfold reduction in latency, as well as being twice as energy efficient. So whereas some argue that the next leap in AI performance may come from chips designed specifically for LLMs, our results suggest you can instead design software that matches the structure of existing hardware.

In the near term, faster inference at lower cost raises the prospect of more responsive AI tools capable of evaluating many more hypotheses per second. This would improve everything from reasoning assistants to scientific-analysis engines. Even more data-heavy applications like fraud detection and testing ideas through simulations would be able to handle dramatically larger workloads without the need for massive GPU clusters.

The future

GPUs remain flexible, widely available and supported by a mature software ecosystem, so wafer-scale chips will not replace them. Instead, they are likely to serve workloads that depend on ultra-low latency, extremely large models or high energy efficiency, such as drug discovery and financial trading.

Meanwhile, GPUs aren’t standing still: better software and continuous improvements in chip design are helping them run more efficiently and deliver more speed. Over time, assuming there’s a need for even greater efficiency, some GPU architectures may also adopt wafer-scale ideas.

Medicine capsules being made
More powerful AI could unlock new types of drug discovery.
Simplystocker

The broader lesson is that AI infrastructure is becoming a co-design problem: hardware and software must evolve together. As models grow, simply scaling out with more GPUs will no longer be enough. Systems like WaferLLM show that rethinking the software stack is essential for unlocking the next generation of AI performance.

For the public, the benefits will not appear as new chips on shelves but as AI systems that will support applications that were previously too slow or too expensive to run. Whether in scientific discovery, public-sector services or high-volume analytics, the shift toward wafer-scale computing signals a new phase in how AI systems are built – and what they can achieve.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. These dinner-plate sized computer chips are set to supercharge the next leap forward in AI – https://theconversation.com/these-dinner-plate-sized-computer-chips-are-set-to-supercharge-the-next-leap-forward-in-ai-270094