Bénin : que révèle la présidentielle du 12 avril sur l’évolution du système politique ?

Source: The Conversation – in French – By Narcisse Martial Yèdji, Sociologue politiste et enseignant-chercheur, University d’Abomey-Calavi de Bénin

L’élection présidentielle du 12 avril 2026 au Bénin a été remportée avec plus de 94 % des suffrages par Romuald Wadagni. Elle soulève de nombreuses interrogations sur les dynamiques actuelles du système politique béninois. Comment interpréter un tel score dans un contexte marqué par les réformes du système partisan et du cadre électoral ? Dans cet entretien avec The Conversation Africa, le sociologue politique Narcisse M. Yèdji apporte des éléments de réponse.


Comment interprétez-vous le score de 94 % obtenu par Romuald Wadagni lors de cette élection ?

L’élection présidentielle du 12 avril 2026 s’est soldée par la victoire du ticket de la majorité présidentielle porté par Romuald Wadagni, crédité de 94,27 % des suffrages, selon les résultats proclamés par la Commission électorale nationale autonome (CENA). Dans le contexte politique national actuel, ce score, exceptionnellement élevé, soulève plusieurs interrogations quant à sa signification.

D’entrée, il peut être interprété comme le signe d’une ultraconcentration des suffrages aux mains de la majorité présidentielle, reflétant statistiquement une très faible dispersion des voix entre les duos en présence : le tandem victorieux formé par Romuald Wadagni et Mariam Chabi Talata, et celui formé par Paul Hounkpè et Rock Judicaël Hounwanou. En règle générale, un tel scénario est typique des contextes électoraux où l’opposition, réduite à une existence formelle, ne dispose d’aucune chance réelle de victoire.

Mais, substantiellement, il est possible que l’écart abyssal observé renvoie à un soutien positif particulièrement robuste au duo déclaré vainqueur, ce qui peut donner l’impression d’un consensus massif en sa faveur.

À l’évidence, les récents réaménagements introduits dans le dispositif politico-électoral du pays (système partisan et code électoral), avec pour effet la consolidation du camp majoritaire et la restriction de l’offre électorale à deux tickets présidentiels concurrents, faiblement clivés sur le fond, rendaient déjà prévisible une telle victoire, mais certainement pas avec autant d’écart.

La comparaison avec la présidentielle de 2021 permet d’inscrire ce résultat dans une perspective plus large. Lors du scrutin de cette année-là, remporté par Patrice Talon avec 86 % des voix, la compétition était encore un peu plus ouverte, impliquant un nombre plus élevé de candidats : trois duos en tout.

La robustesse du score observé ce 12 avril peut être ainsi lue comme le reflet d’une concentration croissante des soutiens électoraux autour du pouvoir en place.

Cette lecture fait particulièrement écho dans le contexte actuel, où la refonte complète des règles de la compétition politique ne permet pas à l’électorat de disposer d’alternatives en nombre suffisant, susceptibles d’éveiller de façon crédible son intérêt.

Mais la prise en compte de cette considération permet en même temps de nuancer la thèse de la massification progressive des soutiens électoraux. Ainsi, ce qui pourrait correspondre à un effet d’adhésion peut, en réalité, n’être que la conséquence de cette refonte ayant conditionné, par la mécanique du parrainage, l’expression même de la compétition et de la dévolution du suffrage.

Sans privilégier l’un ou l’autre facteur, le résultat proclamé peut, en somme, s’analyser comme le produit combiné des préférences électorales et de la reconfiguration orientée du jeu politique.

Cependant, et si le véritable sens à donner à ce résultat ne se trouvait pas tant dans son caractère spectaculaire que dans le tour de force qu’a réussi le pouvoir en place en maîtrisant les conditions de sa succession ?

Le scrutin du 12 avril dernier s’inscrit en effet dans un climat global de défiance politique, visant notamment le régime sortant, et de fortes controverses autour de ses choix de développement. Dans ces conditions, il serait biaisé d’analyser le succès du ticket présidentiel –et non plus la performance écrasante réalisée – comme un effet de contingence. Le réalisme pousse plutôt à privilégier la piste d’un projet politique mûri de longue date et exécuté froidement par le pouvoir.




Read more:
Présidentielle au Bénin : comment les réformes politiques sous Patrice Talon ont remodelé la compétition électorale


Hypothétiquement, l’enjeu est double : d’une part, échapper à toute velléité de vengeance d’un successeur rancunier. Le siège de plus de 50 jours imposé au domicile de l’ancien président Thomas Boni Yayi par le pouvoir actuel, à la suite des législatives de 2019, vient à plusieurs égards conforter cette thèse.

D’autre part, pouvoir poursuivre les innombrables chantiers de réformes et de transformations économiques engagés, en limitant au maximum le risque d’adversité. En 2025, Patrice Talon avait d’ailleurs laissé entendre son souhait de passer le témoin à un successeur qui « ne déconstruira pas » les transformations engagées.

Dans cette perspective, le succès de Romuald Wadagni s’avère être l’aboutissement planifié d’un système politique conçu et façonné pour assurer sa propre continuité à la tête de l’État pour les années à venir, et qui s’est octroyé les moyens de sa reproduction.

Que révèle ce résultat sur l’actuel système politique béninois ?

Le résultat spectaculaire obtenu par la mouvance présidentielle invite à une analyse nuancée du système politique béninois. Pris isolément, un tel score ne suffit pas à caractériser la nature du système, même s’il représente un indicateur important des dynamiques politiques en cours.

Mais dans le prolongement des élections antérieures, ce score peut être appréhendé comme le produit d’une asymétrie large de la compétition politique elle-même : paysage partisan, pouvoir et contre-pouvoir, normes, processus et dispositifs électoraux strictement contrôlés par le camp majoritaire. En face, une opposition divisée, voire paralysée, à qui l’accès à la compétition est dénié.

La victoire de Romuald Wadagni apparaît ainsi, à plusieurs égards, comme un acte majeur d’engagement ferme du pays dans une ère de monisme politique assumé, c’est-à-dire, vers un système politique où la diversité des courants est extrêmement diluée. L’instauration par la Constitution de l’innovation controversée de la « trêve politique » qui proscrit durant les six premières années du septennat, toute activité à finalité compétitive et électorale vient créditer cette thèse de changement de paradigme politique. L’actuel tranche, pour ainsi dire, avec le modèle de démocratie consensuelle et multipartite qui, depuis la Conférence nationale de 1990, a influencé de façon pragmatique la conduite du pays.

Si ces dynamiques tendent à aplanir le paysage politique, polarisé autour d’un courant hyper-dominant, elles sont en revanche présentées par la mouvance comme utiles à la cohésion de l’État.

Quel sens donnez-vous au taux de participation et au comportement électoral des citoyens lors de ce scrutin ?

La comparaison avec les scrutins antérieurs met en évidence une tendance à la recomposition inégale de la participation électorale. Le taux de participation de 63,57 %, supérieur aux 50,17 % enregistrés en 2021 (taux contesté par la société civile qui avance un chiffre de 26,47 %), contraste avec les législatives récentes, caractérisées par des niveaux plus faibles : 27,12 % en 2019 ; 38,66 % en 2023 ; 36,74 % en 2026).

Ce contraste, caractérisé par une mobilisation électorale plus forte pour les présidentielles, sans pour autant traduire une diversification effective de l’offre politique, révèle une hiérarchisation des scrutins. L’élection du chef de l’État demeure ainsi, pour une part significative des populations, un moment politique central.

Cependant, cette mobilisation ne doit pas être interprétée comme un regain général d’intérêt politique. Inscrite dans une longue durée, la baisse du taux de participation depuis 2006 reflète une érosion progressive de l’engagement électoral. Le passage d’un minimum d’environ 75 % dans les années 2000 (74,85 % et 84,82 % respectivement pour le premier tour des présidentielles de 2006 et 2011) à moins de 65 % en 2026, révèle un affaiblissement constant de la participation, même lors du scrutin le plus mobilisateur.

Par ailleurs, le contraste entre un taux de participation plutôt élevé de 63,57 % et une offre électorale peu diversifiée suppose que les électeurs maintiennent, voire améliorent ponctuellement leur participation électorale, sans que ces ajustements correspondent nécessairement à une forte démocratisation ou à une intensification de la compétition politique. Autrement dit, la participation semble ne pas être conditionnée par la perception d’un pluralisme effectif dans le jeu électoral.

À terme, ces évolutions peuvent être considérées comme le produit d’une recomposition inégale du rapport des Béninois aux élections. Alors que le vote présidentiel conserve une part d’attractivité et suscite une mobilisation forte, la tendance de fond demeure marquée par une forme d’abstention progressive, voire de défiance.

Cette tendance peut manifestement être associée à une perception limitée de l’efficacité du processus de vote, une réduction de l’offre électorale, réappropriée, à défaut, comme une alternative politique. Il se peut, enfin, qu’elle soit un révélateur de la transformation des attentes sociales vis-à-vis de la représentation politique.

Quels sont les principaux défis qui attendent le nouveau président au début de son mandat ?

Plusieurs défis attendent le nouveau président dès l’entame de son mandat. Le premier tient sans doute à la question de la légitimité politique. En effet, une partie importante de l’opinion publique considère, à tort ou à raison, que son accession au pouvoir s’inscrit dans la continuité directe de celle de Patrice Talon. Pour une large majorité, Romuald Wadagni est considéré comme son successeur désigné.

Dès lors, l’élection de ce dernier s’apparente, pour une partie des Béninois, à un prolongement du « système Talon », plutôt qu’à l’expression d’une alternance véritable.




Read more:
Au Bénin, le bilan de Patrice Talon à l’épreuve des élections législatives


Dans cette perspective, le nouveau chef de l’État apparaît non seulement comme l’héritier des acquis du régime précédent, mais également de ses passifs. Cette perception, qui semble alimenter chez certains des critiques à son encontre, pose avec acuité la question de sa capacité à incarner une autorité politique autonome.

Le défi central de son mandat consiste, de ce fait, à se démarquer de cet héritage politique qui divise, afin de construire une image de président indépendant dans ses orientations et décisions. Bien que Romuald Wadagni ait affirmé que son prédécesseur « s’effacera » en cas de victoire, des incertitudes subsistent quant à l’effectivité de ce distancement annoncé.

Sur le plan institutionnel, le nouveau président hérite en effet d’un exécutif congénitalement fragilisé par un Parlement entièrement redevable à Talon, et qui devra composer avec un Sénat capable de restreindre son influence. Mieux, en tant qu’ancien président, Patrice Talon siégera au Sénat, où il demeurera sans doute, pendant les prochaines années, l’une des figures les plus influentes du champ politique national.

Du premier défi, découle le second : celui de la restauration de la confiance entre la chose politique et les populations. Une frange croissante des citoyens, sans doute marquée par la défiance, a tendance à exprimer son désengagement à travers une attitude d’abstention croissante lors du vote.

Reconquérir cette partie de l’électorat suppose de poser des actes crédibles attestant d’une gouvernance renouvelée, distincte des pratiques antérieures. La légitimité des politiques publiques engagées par le nouveau président pourrait en dépendre étroitement.

Par-delà ces considérations, le défi le plus structurant reste vraisemblablement celui de la réconciliation nationale. Les dynamiques politiques récentes semblent avoir contribué à accentuer les clivages entre les Béninois. Dans ce contexte, le nouveau président devra œuvrer à poser des actes forts pour décrisper le climat socio-politique, et ainsi favoriser un élan de reconstruction du lien social, condition essentielle à la stabilité institutionnelle.

Dans cette optique, des mesures fortes sont attendues dès son investiture, notamment sur les enjeux à forte sensibilité sociale :

• Les enjeux sécuritaires, dans les zones frontalières du nord exposées à la menace terroriste ;

• Les enjeux économiques et sociaux, liés au coût de la vie, à l’amélioration du pouvoir d’achat, à l’insertion des jeunes et des diplômés, et à la réduction des inégalités salariales ;

• Les enjeux politiques et institutionnels, liés notamment à la situation des « prisonniers politiques », exilés et assimilés, à l’assouplissement de la pression fiscale, et au renforcement de la confiance dans les institutions politiques.

Dans le concert des profondes mutations politico-institutionnelles en cours, la capacité de Romuald Wadagni à répondre simultanément et efficacement à ces différentes attentes, conditionnera sans doute l’évolution de sa cote de légitimité, mais aussi la réussite globale de son septennat.

The Conversation

Narcisse Martial Yèdji does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Bénin : que révèle la présidentielle du 12 avril sur l’évolution du système politique ? – https://theconversation.com/benin-que-revele-la-presidentielle-du-12-avril-sur-levolution-du-systeme-politique-280826

Qui détient les clés de la réindustrialisation en France ?

Source: The Conversation – in French – By Antoine Achard, Docteur en Sciences Economiques, Université de Bordeaux

Local ou central, déconcentration ou décentralisation ? La France continue de balancer entre ses choix dans sa politique de réindustrialisation. Le gouvernement a décidé de renforcer le rôle des préfets dans ce domaine. La réussite passe par une meilleure coopération où la Région tracerait la route et le préfet dégagerait le passage.


Depuis des années, médias, scientifiques, industriels, politiques nous adressent le message suivant : la réindustrialisation est devenue un objectif central pour la France et l’Europe.

Derrière cette notion, on trouve une promesse : créer des emplois pérennes, relocaliser certaines productions jugées stratégiques pour notre économie, booster la transition énergétique.

Une question demeure : qui pilote ce chantier de définition de la politique industrielle et de son application ?

L’État, au niveau national, les Régions, chefs de file sur les questions de développement économique depuis la dernière réforme territoriale, les Directions déconcentrées de l’État au premier rang desquels les DREETS ou encore les préfets ?

Avant de poursuivre, rappelons que la décentralisation confie des compétences à des collectivités territoriales élues (Régions, Départements…), tandis que la déconcentration délègue le pouvoir de l’État à ses propres représentants locaux (préfets, directions déconcentrées…).

Une vieille histoire française

En France, l’industrie a toujours été une affaire d’État. Colbert, considéré comme le père des politiques industrielles, au XVIIe siècle, puisqu’il est le premier à intervenir de façon systématique et structurée dans l’économie et l’industrie. Il soutenait notamment une politique de manufactures nationales fortes ancrées sur les territoires.

Après la Seconde Guerre mondiale, les politiques de planifications et de nationalisations ont suivi la même logique : une impulsion nationale, apothéose du dirigisme centralisateur, mais une mise en œuvre effective sur le terrain. Il est certain que le poids de cette histoire compte : elle explique pourquoi la politique industrielle française se joue toujours dans un dialogue complexe entre Paris et les territoires.




À lire aussi :
La réindustrialisation ne peut pas profiter à tous les territoires


Les Régions : des stratèges de proximité ?

Depuis les lois Deferre qui signent l’acte I de la décentralisation en 1982, les Régions ont gagné du poids au fur et à mesure des décennies dans la conception et l’application de politiques de développement économique. Elles sont aujourd’hui légitimes dans les textes, moins dans le budget, et accompagnent des projets industriels, soutiennent l’innovation, des PME aux ETI. Elles sont également devenues les principales responsables de la gestion des Fonds Européens Structurels et d’Investissements (les FESI : FEDER, FEADER…). Tout cela les a rapprochées des entreprises et leur a permis de se bâtir un vrai savoir faire et expertise.

Les politiques régionales sont évidemment très diverses, de même que leur manière d’intervenir. Mais, lors de mes recherches en Nouvelle-Aquitaine, j’ai pu observer que leur rôle ne se limite pas seulement à distribuer des subventions. Elles définissent des trajectoires, structurent des filières, cherchent à créer des « champions régionaux » (voire le chapitre 5). Leur force réside dans la connaissance des spécificités locales, acquise en tissant des liens étroits et pérennes avec les acteurs locaux. Leur faiblesse réside probablement dans leur manque de moyens d’intervention tant financiers qu’humains.

L’éternel retour de l’État, la revanche des préfets ?

Depuis plusieurs années, l’État revient dans le jeu des politiques économiques et industrielles. Ce retour a été marqué par le lancement du programme Territoires d’Industrie intronisé par Édouard Philippe en 2018. Ce programme a été relancé en 2023 et modifié à la suite des remontées de critiques sur sa version et 1 (Cour des Comptes, Régions de France, Intercommunalités de France). Il a également été doté d’un fonds d’intervention spécifiques (Fonds Vert pour Territoire d’Industrie) et doublé de déclinaisons de programmes nationaux au niveau régional, comme le désormais incontournable France 2030, lancé en 2023. Ce dernier connait une version régionalisée.

En parallèle, l’État territorial a repris de la vigueur au fil des ans pour administrer ces grands programmes, via les DREETS/DDEETS, l’ANCT, les préfectures et sous-préfectures. Souvent, et les acteurs locaux en témoignent, ces grands programmes sont gérés de manière collaborative avec les collectivités, au premier rang desquelles les Régions. Toutefois, ces dernières sont souvent assignées à un rôle consultatif. Ce faisant, les DREETS sont redevenues incontournables malgré des moyens humains limités par rapport aux Régions.

Le point positif c’est que cela crée un canal complémentaire, parfois concurrent, pour le soutien aux entreprises. De l’autre côté en revanche cela ne facilite pas la lisibilité, et bien souvent les entreprises et citoyens se demandent « mais qui fait quoi ? »

Des textes passés inaperçus ou presque

A l’été 2025, plusieurs textes officiels, qui ont failli passer inaperçus tant l’actualité politique ne manque pas de rebondissements, décret n° 2025-479, décret n° 2025-480 et décret n° 2025-481, ont renforcé les prérogatives des préfets. Le préfet de région devient le véritable pilote de l’action territoriale de l’État, avec autorité sur les directions régionales. Le préfet de département, lui, est chargé de la mise en œuvre opérationnelle et du suivi des projets industriels locaux.

Comme le résume Maire Info, c’est une « montée en puissance » : les préfets disposent désormais d’un rôle d’arbitre entre les services, d’une capacité renforcée de pilotage interministériel, et d’un mandat clair vis-à-vis des entreprises. Ce changement d’équilibre traduit moins une recentralisation qu’une déconcentration accrue. L’État assume donc dès lors de déléguer davantage à ses représentants locaux.

Ce mouvement important a été précisé par une circulaire du premier ministre du 5 septembre 2025, qui redéfinit l’action territoriale de l’État. Elle conforte le préfet de département comme « échelon de référence », élargit son pouvoir de dérogation et lui confie un rôle de délégué territorial pour de nombreux opérateurs publics (ADEME, ANRU, FranceAgriMer, OFB, ANS, etc.). Il est aussi associé aux nominations et à la définition des objectifs des chefs de service, et devient le seul porte-parole de l’État dans le département. Autrement dit, il ne s’agit plus seulement de coordonner, mais bien d’incarner l’État territorial dans toutes ses dimensions en posant face aux collectivités des acteurs aux prérogatives renforcées.

Ce mouvement ne concerne pas uniquement la coordination administrative. Il touche également des agences opérationnelles comme l’ADEME. Un avant-projet de loi, dont Le Monde a publié des extraits en avril 2026, prévoit l’intégration des délégations régionales de l’agence au sein des DREAL, placées sous l’autorité du préfet. Une réforme qui inquiète les syndicats et certains administrateurs, qui y voient un risque de perte d’autonomie et d’expertise — précisément ce qui fait la valeur opérationnelle de ces structures sur le terrain. (https://www.lemonde.fr/planete/article/2026/04/07/les-salaries-de-l-ademe-craignent-le-demantelement-de-leur-agence-par-l-etat_6677917_3244.html)

Entre chevauchements et coopérations

Pour un dirigeant, un porteur de projets, même parfois une collectivité, cette double présence peut prêter à confusion et renforcer le flou autour des compétences et attributions. Qui doit-on aller voir lorsque l’on porte un projet de développement, d’innovation, etc. ? La Région, qui définit une stratégie de long terme et dispose de financements propres et européens ? Ou le préfet, capable de débloquer rapidement une autorisation, de coordonner plusieurs services et qui dispose désormais indirectement de fonds d’intervention ?

France 5 – 2024.

Dans le meilleur des cas, les deux se complètent. La Région trace la route, le préfet dégage le passage. Mais si la coopération n’est pas claire, le risque est réel : duplication des dispositifs, perte de lisibilité pour les entreprises, dilution des responsabilités. Et il y a un risque certain de se retrouver à des réunions multiacteurs très difficiles à suivre pour des entreprises qui souhaitent avant tout avoir des règles du jeu simples.

Donner du sens à la réindustrialisation

La réindustrialisation aujourd’hui n’est pas seulement un mot d’ordre. Elle demande de la cohérence dans les politiques qui sont pensées, présentées et appliquées : entre les ambitions nationales, les stratégies régionales et les besoins locaux.

Si les Régions doivent rester les stratèges de long terme, articulant économie, emploi et aménagement du territoire. Les préfets, eux, pourraient jouer le rôle de facilitateurs, garants d’une administration réactive. En revanche, si leur autorité commence à prévaloir, cela peut rebattre les cartes sur l’articulation et le déploiement des politiques économiques et industrielles.

Pour conclure, c’est une articulation, et non l’action isolée de l’un ou de l’autre, qui donnera du sens aux politiques industrielles et donc à la réindustrialisation. L’histoire française le montre : l’État seul ne suffit pas, les territoires seuls non plus. C’est seulement ensemble qu’ils peuvent réussir.

The Conversation

Antoine Achard est membre du laboratoire de Géographie de l’Université de Poitiers Ruralités

ref. Qui détient les clés de la réindustrialisation en France ? – https://theconversation.com/qui-detient-les-cles-de-la-reindustrialisation-en-france-280231

Économie de l’attention : former des « consommateurs avertis », une priorité de l’éducation aux médias

Source: The Conversation – in French – By Divina Frau-Meigs, Professeur des sciences de l’information et de la communication, Auteurs historiques The Conversation France

Le procès qui vient de reconnaître aux États-Unis la responsabilité de YouTube et d’Instagram dans les troubles psychiques développés par une utilisatrice invite à interroger les objectifs de l’éducation aux médias. Si celle-ci vise à aiguiser l’esprit critique des jeunes citoyens, elle ne peut mener sa mission à bien sans éclairer les rouages commerciaux des plateformes.


Dans les cours d’Éducation aux Médias et à l’Information (EMI), l’accent est ostensiblement mis sur l’« esprit critique », c’est-à-dire la capacité à prendre du recul par rapport à l’information et à se faire une opinion fondée.

Mais qu’en est-il de la compétence à la « consommation avertie », c’est-à-dire de la capacité à réfléchir à sa consommation, ses choix, ses besoins et ses budgets en toute connaissance de cause, et de faire valoir ses droits ? Celle-ci passe beaucoup plus souvent au second rang. Elle figure pourtant dans le programme d’éducation à la citoyenneté numérique du Conseil de l’Europe.

Le procès historique gagné par une consommatrice des applications de Meta (Instagram et Facebook) et YouTube (filiale de Google au sein d’Alphabet) illustre pourtant sa puissance d’action. Le jury a tranché en faveur de la plaignante, considérant que ces plateformes lui avaient causé préjudice en raison de la conception du produit, dont le design et les fonctionnalités ont entraîné chez elle des troubles de santé mentale.

Meta et Google accusés d’avoir « fabriqué l’addiction » de jeunes : Un procès inédit à Los Angeles (TV5 Monde, février 2026).

C’est la première fois que l’addiction numérique est reconnue comme dépendance forte entraînant une conduite compulsive, sans prise de substances. Voilà qui donne des perspectives d’actions dans les classes. Comment retourner l’économie de l’attention contre ceux qui la manipulent et la monétisent ?

En EMI, la critique de l’économie de l’attention passe par une connaissance des stratégies des plateformes visant à capter et maintenir l’intérêt des usagers, afin que les messages des annonceurs laissent une empreinte forte et répétée dans leur esprit et les engagent à passer à l’achat. La compétence « consommation avertie » rappelle aux usagers qu’ils ne sont pas une simple audience mais des consommateurs et des citoyens à la fois.

Construire l’usager comme consommateur et citoyen, et non comme simple utilisateur, passe par la reconnaissance de ses capacités d’action autonome, c’est-à-dire de recours, et ses capacités d’action de groupe, c’est-à-dire de protestation, voire de conflit.

Définir la « consommation avertie »

Pour le consommateur américain, les moyens d’action sont clairs et balisés, car ils autorisent la saisie en justice tout comme la réclamation client auprès d’une entreprise récalcitrante. Ce qui n’est pas sans effets d’aubaine pour certains : K.G.M. pourrait recevoir 6 millions de dollars de Meta et YouTube à titre de dommages-intérêts compensatoires et punitifs.

Pour le consommateur européen, les moyens d’action sont moins balisés, même si les plateformes sont gérées par la direction générale des réseaux de communication, du contenu et des technologies (DG-Connect), qui entremêle les contenus et leurs transports. Le répertoire des actions contre les plateformes est en grande partie saisi par les États, ce qui tend à dé-saisir, voire à dé-responsabiliser, les consommateurs et, par contrecoup, les citoyens.

La réglementation mise en place par le Digital Services Act (DSA) (2024) oblige à la transparence algorithmique : les très grandes plateformes (plus de 45 millions d’utilisateurs actifs mensuels) doivent publier des rapports trimestriels détaillant leurs algorithmes de recommandation et leurs métriques d’amplification, ce qui expose leurs fonctionnalités sans toutefois les obliger à en changer.

Côté usagers, le DSA crée le statut de signaleurs de confiance – il s’agit d’organisations reconnues pour leur expertise dans la détection, l’identification et la notification de contenus illicites ou toxiques. La solution pour le consommateur citoyen est donc de repérer ces signaleurs, et de les saisir. En France, c’est le régulateur des médias, l’ARCOM, qui désigne ces instances pouvant se saisir à la place des usagers. Ainsi, il se trouve qu’Addictions France en fait partie, tout comme Indecosa CGT, pour la défense des consommateurs.

Questionner la figure de l’usager

Les plateformes cherchent à mettre l’utilisateur en condition physique et psychologique de recourir à l’écran. Cette relation établit un contrat de partage direct, souvent scellé par des « conditions générales d’utilisation » (CGU) illisibles, notamment par les mineurs, qui donnent aux plateformes un large contrôle des données cédées en échange d’un accès « gratuit ».

Aux États-Unis, ce contrat de partage a été testé en 1996 et encore en 2012, par des « web blackout ». Les acteurs de l’internet ont affiché un écran noir sur leurs pages d’accueil ou suspendu leurs services pour protester contre des projets de loi menaçant leur liberté de commerce. En 1996, ils ont ainsi obtenu l’immunité dans la section 230 du Communications Decency Act. En 2012, ils ont obtenu le retrait de la loi SOPA antipiratage qui visait à élargir les capacités d’application du droit d’auteur pour lutter contre sa violation en ligne.

Au nom de la liberté d’expression et de consommation en ligne, ils ont incité les usagers à faire des pétitions, à boycotter les acteurs qui ne suivaient pas le mouvement et à manifester dans la rue pour faire valoir leur soutien aux plateformes et obtenir ainsi le retrait des projets de loi. En Europe, ce répertoire d’actions a été bien moins utilisé.

Mais les conditions d’usage se sont dégradées et avec elles le statut des usagers, devenus des ouvriers cachés, qui travaillent par leur temps d’attention à enrichir les plateformes. Les likes se transforment en espèces sonnantes et trébuchantes en optimisant le référencement et le placement de produit ; la création de contenus est assimilable à une forme de rédaction gratuite, ce qui va à l’encontre du droit du travail, notamment quand il s’agit de mineurs.

Visibiliser le rôle des annonceurs et des actionnaires

En EMI, il s’agit aussi de montrer le dessous des cartes. Les annonceurs et les actionnaires sont deux acteurs invisibles mais cruciaux de l’économie de l’attention. Principal mode de paiement des médias en système commercial concurrentiel, l’intégration publicitaire dicte les fonctionnalités de l’attention, comme les algorithmes de recommandation, les notifications push, le design « infinite scroll », les formats viraux, les titres « click-bait ».

C’est quoi l’économie de l’attention ? (Décodage – Info ou Mytho ? 2022)

L’économie de l’attention se fonde sur ce flux continu qui est propice à l’addiction. La vente d’espaces publicitaires permet de financer le web « gratuit » ce qui passe par des fonctionnalités de ciblage comportemental, d’achat et de partage de données, etc. Le prix de ces unités publicitaires dépend de la capacité de la plateforme à garantir une exposition prolongée (temps de visionnage, taux d’engagement).

L’usager doit être informé des montants faramineux engagés, du duopole des deux régies publicitaires de Meta et Google, rejointes récemment par Amazon, ce qui oblige tous les autres acteurs du net à passer par leurs fourches caudines, y compris les médias audiovisuels et la presse.

La publicité est aussi un secteur en concentration croissante, avec 5 à 6 agences médias en contrôle du secteur, qu’elles se sont accordées pour réguler entre elles, notamment pour ce qui est de la vente d’espaces en ligne. Leur système est complexe et opaque et rend la chaîne de valeur (créée ou détruite) difficile à traiter pour les usagers, y compris les créateurs de contenu, rémunérés au clic.

A cela s’ajoute le rôle des actionnaires de ces plateformes, dont la plupart sont entrées en bourse entre 2004 (Google) et 2012 (Facebook). Sans oublier que leurs fondateurs restent en contrôle du capital comme des actions. Ces acteurs que sont les agences et les actionnaires ont contribué à rompre le contrat de partage avec l’usager de base. Cette rupture s’est révélée au grand public avec leur volte-face et leur ralliement aux politiques ultra-libérales de Donald Trump en 2025. Elle révèle le fossé creusé entre les élites de la Tech et la base progressiste de leurs usagers croyant en un progrès social porté par les réseaux numériques.

Responsabiliser les plateformes

Les fonctionnalités du design ne sont pas une fatalité. C’est ce que démontrent les milliers de poursuites engagées par des jeunes, à titre individuel, mais aussi, à titre collectif, par des districts scolaires et des procureurs généraux d’État (devant le tribunal fédéral de première instance du district nord de la Californie, par exemple).

Elles vont se heurter à la résistance des plateformes, qui font appel systématiquement, arguant de la difficulté à mesurer et démontrer juridiquement l’impact individuel de l’addiction numérique, sans consensus scientifique massif. Mais elles signalent une ère nouvelle pour les usagers. Outre le recours au pénal (pour vice de conception de produit ou fonctionnalités addictives), la doctrine du « duty of care » (obligation de soin) évolue. Elle ouvre la porte à des initiatives de design éthique des fonctionnalités, comme l’arrêt des likes, les limites de temps d’écran, les notifications de pause, qui visent à redonner du contrôle aux utilisateurs.

Ces affaires impliquent la nécessité d’une coopération internationale pour harmoniser les standards des fonctionnalités, mais aussi l’âge de la majorité numérique. Entre les États-Unis et l’Europe, il y a deux années de hiatus en général, ce qui bénéficie aux plateformes américaines. La loi COPPA (Children’s Online Privacy Protection Act) entrée en vigueur dès 1998 et révisée en 2013 puis en 2025 la fixe à 13 ans aux États-Unis alors qu’en France, par exemple, elle est à 15 ans.

Ces affaires signalent la possibilité d’actions de classe internationales, surtout depuis la Directive relative aux actions représentatives (2020), qui relève d’un « new deal » pour les consommateurs, notamment en matière de pratiques commerciales déloyales et de clauses abusives. Les consommateurs européens pourraient joindre leurs forces aux Américains, et pousser au changement des fonctionnalités des écrans.

L’affaire K.G.M. remet en perspective l’interdiction des smartphones dans les écoles, préconisée par plusieurs pays dans le monde. Le ban laisse les praticiens de l’EMI dubitatifs, car inapplicable si tous les accessoires juridiques, techniques et éducatifs qui vont avec ne sont pas mis en place. La reconnaissance de la responsabilité des plateformes pour conception de produits à finalités addictives est plus prometteuse… si tant est que les consommateurs s’en saisissent, avec ou sans l’appui des États.

C’est en effet le design des applications de médias sociaux qui doit changer, pour les mineurs comme pour les adultes. En matière de résilience, l’efficacité de l’interdiction des smartphones comme celle du bouclier démocratique dépendra de cette mise en œuvre de la compétence « consommation avertie », par le biais de l’EMI, dès le plus jeune âge.

The Conversation

Divina Frau-Meigs ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Économie de l’attention : former des « consommateurs avertis », une priorité de l’éducation aux médias – https://theconversation.com/economie-de-lattention-former-des-consommateurs-avertis-une-priorite-de-leducation-aux-medias-279775

Hampshire College’s demise is yet another blow to creative, outside-the-box options in higher education

Source: The Conversation – USA (2) – By Austin Sarat, William Nelson Cromwell Professor of Jurisprudence and Political Science, Amherst College

Hampshire College’s campus entrance on April 16, 2026, a few days after the school announced it is closing. Jessica Rinaldi/The Boston Globe via Getty Images

Hampshire College, a private college located in Amherst, Massachusetts, announced on April 14, 2026, that it was joining the list of small, experimental liberal arts colleges that have closed their doors over the past few years.

Hampshire will cease operations in December 2026 because of “declining enrollment, the weight of long-standing debt, and stalled progress on land development,” Hampshire board chair Jose Fuentes said in a statement. Hampshire currently enrolls 625 students, about half the number who attended in the early 2000s.

Recently admitted Hampshire students will receive a refund on their deposit. Hampshire’s current students completing their final capstone project can still graduate from the school. Other enrolled students can transfer to another school in Massachusetts that is part of the Five College Consortium. Amherst College, where I teach law, is part of this consortium. This arrangement allows students from participating colleges to take classes on different campuses.

As someone who has taught many Hampshire students, I can attest that the college delivered an education that lived up to its motto, “Non Satis Scire,” meaning “To Know Is Not Enough.”

I have also written about the financial dilemmas liberal arts colleges are facing, as enrollment drops, finances are strained and they are pressured to adopt vocational programs.

Hampshire’s demise is another sign of the consolidation occurring in higher education, in which wealthy schools and those that deliver a traditional and often vocationally driven curriculum have an advantage. Meanwhile, dozens of small colleges with small endowments, like Hampshire, cannot keep up.

Two people are seen walking down a cleared path towards a large building, with snow all around them.
Pedestrians walk the campus of Hampshire College in Amherst, Mass., in January 2019.
Jonathan Wiggs/The Boston Globe via Getty Images

A growing list of shuttered liberal arts schools

Founded in 1965, Hampshire billed itself as a school that “scrapped generic models of learning” and offered a student-driven curriculum. It does not have traditional core course requirements and encourages students to undertake self-directed projects.

Hampshire is the latest experimental New England college to find its approach was not sustainable.

Three Vermont colleges – Green Mountain College, Marlboro College and Goddard College – closed in 2019, 2020 and 2024, respectively.

These schools were hardly household names in the higher education world, but each was prominent among aficionados of experimental education.

These colleges emphasized students undertaking independent studies, did not have standard academic departments and de-emphasized faculty research. They attracted quirky, passionate students, many of whom did not thrive in traditional high school settings.

The dream of experimental education

The origins of experimental education in colleges and universities can be traced to the turn of the 20th century and the American philosopher John Dewey. While Dewey focused on elementary and secondary education, he also wrote a book in 1899 called “The School and Society: Being Three Lectures,” which became a handbook for schools like Hampshire College.

Dewey “insisted that the old model of schooling … was antiquated,” explained Peter Gibbon, an education scholar at Boston University.

Dewey believed that “students should be active, not passive,” wrote Gibbon. “Interest, not fear, should be used to motivate them. They should cooperate, not compete.”

Those principles inspired the first stirrings of experimental education in the United States.

In 1917, Deep Springs College, a college focused on student self-government and manual labor, opened on a California cattle ranch. There are 24 to 30 undergraduate students at a time at this two-year school. Students are responsible for helping to run the school, including hiring faculty and admitting new students.

In 1921, Antioch College, a private college in Ohio that had opened 70 years earlier, reorganized itself to emphasize learning by doing. It became the first liberal arts college in the U.S. to create a co-op program, which combined in-class instruction with learning through employment outside the college.

Dewey’s influence also inspired Alexander Meiklejohn, who, after a tumultuous tenure as president of Amherst College in the early 1900s, directed the Experimental College at the University of Wisconsin from 1927 to 1932. Students at this independent college, operating within the broader University of Wisconsin, did not receive conventional grades. They also studied in six-week sessions, rather than traditional semesters that last a few months.

Meiklejohn wrote that this school had “one aim and that aim is intelligence.”

Some University of Wisconsin faculty, though, thought Meiklejohn’s approach was not rigorous. In a preview of what was to come a century later, the Experimental College closed five years after its inception.

Sarah Lawrence, a New York liberal arts college that opened in 1926, and Bennington College, a small college that opened in Vermont in 1932, were soon added to the list of the early adopters of experimental education.

Two men wearing cowboy hats crouch near a creek and look at it, with mountains and large expanse of grass behind them.
Two administrators of Deep Springs College search for a black toad on the remote college campus in Deep Springs Valley, Calif., in April 2021.
Robert Gauthier/Los Angeles Times via Getty Image

Experimental colleges come into their own

Throughout the late 1950s and ’60s, dozens of other experimental colleges were founded, including Evergreen State College in Washington state.

These schools were not developed to transform higher education, argues education scholar Reid Pitney Higginson. They were designed to add variety to the menu of existing schools.

In a sense, experimental colleges captured the spirit of the 1960s. They wanted to free their students from the traditional educational paths and empower them to have a say in how their colleges operate. That sometimes caused difficulty, when students pushed for greater control over their schools.

Yet even in their halcyon days, experimental colleges never became as financially well off nor as prestigious as their mainstream competitors. At its founding, Hampshire seemed to have a distinct advantage: its membership in the Five College Consortium, connecting it with Amherst, Smith College, Mount Holyoke College and the University of Massachusetts.

An exception to the rule

But even that was not enough to save Hampshire. One challenge for it and other higher education institutions is that a rising number of students are questioning the value of a college degree, especially if it does not result in skills or a certification they can quickly use as graduates to make a living.

Tuition and housing for students attending Hampshire in the 2025-26 school year costs more than US$72,000.

Hampshire’s closing signals the full flowering of a higher education era that favors well-resourced schools, which benefit from federal funding and large private donations. Those schools often deliver a more conventional, safer educational product and can attract students from wealthy families.

Because Hampshire remained steadfastly unconventional, its failure may encourage schools to double down on offerings they know will attract a job-anxious generation of students.

What documentary filmmaker and Hampshire graduate Ken Burns told The New York Times about his alma mater’s closing helps explain why it and other experimental colleges could not survive as the exception to the rule in today’s higher education landscape.

“(Hampshire) was dedicated to a transformational education, in an era when higher education has been hijacked by the transactional,” Burns said. “A college education is, to some, like a Louis Vuitton handbag. And that’s not Hampshire.”

The Conversation

Austin Sarat does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Hampshire College’s demise is yet another blow to creative, outside-the-box options in higher education – https://theconversation.com/hampshire-colleges-demise-is-yet-another-blow-to-creative-outside-the-box-options-in-higher-education-280791

The Blue Trail is a dystopian ‘coming-of-old-age’ gem

Source: The Conversation – UK – By Danielle Reid, Postgraduate Researcher, Women, Ageing, and Machine Learning on Screen, University of Leeds

The Blue Trail offers a bold and refreshing vision of ageing – one driven by agency, quiet defiance and profound transformation. Set against the awe-inspiring landscapes of north-west Brazil, the film weaves together dystopian sci-fi with a striking “coming-of-old-age” journey, redefining what it means to grow older.

The film follows 77-year-old Tereza (Denise Weinberg). She lives in a chilling near-future where a totalitarian regime forcibly removes anyone over 75, relocating them to remote colonies without consultation or consent.

Faced with this looming threat of unwanted exclusion and invisibility, Tereza refuses to comply. Instead, she embarks on a surreal journey along the Amazon river to chase one final dream before she is “put out to pasture”.

On her picturesque journey through the Amazon, Tereza meets Cadu (Rodrigo Santoro), an enigmatic boat navigator with shady origins, and Ludemir (Adanilo), a fickle pilot with a clouded sense of judgment. Most importantly, however, she meets Roberta (Miriam Socarras), a secretly atheist preacher who sells Bibles. Roberta is older than Tereza, and brings an exciting and alluring sense of hope and freedom to her otherwise oppressive reality.

The trailer for The Blue Trail.

The two women connect in a powerfully intimate way, sharing new experiences and arriving at unexpected revelations. Together, they embody an almost Thelma and Louise-like bond. The Blue Trail is a thoroughly original story, in which two older women are capable of newness, independence and transformation against all odds.

Interrogating ageism

Amid its dystopian backdrop, the film reveals moments of astonishing beauty through its fantastical visual language – drifting between surreal, dreamlike images of the Amazon’s waterways, northern Brazilian river towns and striking urban jungles.

The collision of water and land, as well as jungle and urban environments, serve as powerful visual expressions of the story’s underlying tensions. Tereza’s character experiences her greatest sense of escape and liberation when she is at one with nature.

The film also lingers on stunning close-ups of animals, their presence quietly echoing Tereza’s journey in unexpected ways. Most notably, the fictional blue drool snail serves as a driving force in the plot. Often dismissed as slow and unassuming, the snail is reimagined in director Gabriel Mascaro’s world as a creature capable of profound and unexpected things.

At its core, the film serves as a critique of ageist assumptions, imagining an Orwellian future where today’s stereotypes calcify into authoritarian policy. In this world, the supposed logic of care mutates into control, unsettlingly blurring the line between protection and punishment.

We see Tereza subjected to a series of legal and social infantilisations. She is ordered to rest, despite having no desire or need to do so. She must obtain her daughter’s consent for everyday tasks like booking travel or buying lunch. She is forced to wear adult nappies despite being fully continent. These humiliations reveal the harm in treating old age as a singular, generalised state.

In this way, the film powerfully exemplifies the influential claim made by anti-ageist activist Margaret Gullette that we are “aged by culture”. It exposes how the acceptance of reductionist attitudes towards ageing can materialise as harmful, systemic ageist practices.

Despite these harsh realities, Mascaro constructs a character who commands our admiration rather than our pity. This creative choice feels particularly significant in a cultural landscape where older people are too often framed as weak, dependent, or diminished in capacity.

Tereza is presented as both physically and mentally capable – strong-willed, perceptive, and open to the possibility of a different future. Her age never defines the limits of her identity.

Instead, her quick wit becomes a subtle-yet-entertaining form of resistance, particularly when she turns ageist assumptions about incontinence back on those who impose them, gaining the upper hand in the process. These moments also offer brief light-hearted relief within the film’s broader narrative.

A final striking element of Mascaro’s film is his use of lingering close-ups on Tereza’s face. These moments showcase an intimacy rarely afforded to ageing women’s bodies on the big screen.

Through both characterisation and visual style, The Blue Trail quietly but powerfully resists the notion of ageing as taboo, and challenges the cultural tendency to overlook or erase older people altogether.

The Conversation

Danielle Reid receives funding from The Leverhulme Trust as part of the Women, Ageing and Machine Learning on Screen project.

ref. The Blue Trail is a dystopian ‘coming-of-old-age’ gem – https://theconversation.com/the-blue-trail-is-a-dystopian-coming-of-old-age-gem-280947

Robots just captured a Russian position in Ukraine – but don’t worry about real-life Terminators just yet

Source: The Conversation – UK – By Jacob Parakilas, Research Leader, Defence, Security, and Justice Group, RAND Europe

Ukraine’s president Volodymyr Zelensky recently announced that ground robots (also known as unmanned ground vehicles) had captured a Russian position. Zelenskyy said it was the first time in the Ukraine war that an enemy position had been taken exclusively by robots.

Ukraine’s increasing use of drones in its defence has received a great deal of attention as Russia’s invasion has dragged on. While most of this has focused on aerial and maritime drones, the army’s use of ground robotics has been a quieter story – but one with growing significance.

Military ground robotics are rapidly transforming battlefield tasks. However, for the foreseeable future, their greatest impact will be in supporting roles rather than directly replacing infantry soldiers. So, while this capture of the enemy position by robots is a milestone moment, it shouldn’t be over-interpreted.

When it comes to ground robots taking on infantry combat, there are a set of serious obstacles. The first is, quite literally, obstacles. Anyone who has watched increasingly sophisticated robotics demonstrations online will have seen machines navigating complex and difficult terrain.

However, operating in a controlled environment in front of a camera is a world away from crossing broken ground under fire. Most ground robots continue to rely either on wheels or tracks for a variety of very good reasons: mechanical simplicity, availability of spare parts, and cost.

But they have sharp limits on the types of terrain they can traverse, and not all enemy strongpoints are built at the end of paved driveways.

Even accounting for combat loads and the nature of the battlefield, human infantry can climb, jump, wade and otherwise traverse a large variety of obstacles unassisted, in ways that robots still cannot match.

Human in control

The second major obstacle is the electromagnetic environment. While the term robot is often used to describe uncrewed ground vehicles, they are mostly still remotely operated, which means the operator must maintain a constant control link with the vehicle.

This can be done via radio link. However, these links can be interrupted by enemy jamming, or by unfavourable weather or terrain.

The operator can also control the robot by a fibre-optic cable, which cannot be jammed but limits how far the robot can travel from its operator. A cable can also be severed by a blast, shrapnel or just adverse terrain.

The alternative is autonomy, and these ground robots do increasingly have some autonomous capabilities. But so far, this tends to be for specific tasks such as highlighting identified enemy positions, rather than being autonomous in the sense of driving and controlling themselves.

Autonomous driving is a massive challenge. Residents of London may have seen Waymo autonomous cabs in recent weeks, moving through the city’s streets ahead of their public rollout. But following traffic laws and (more-or-less) consistent road markings is still a huge and complex task.

Navigating a battlefield in a complex 3D environment is at least as complex, requiring a huge amount of processing power. That power can either be put aboard the robot itself, which significantly increases its cost and complexity, or done remotely and transmitted – which brings us back to the issue of control link vulnerability.

Support roles

While these are serious challenges for ground robots in an infantry role, they pose less of an issue in a range of critical support tasks. Robots have, for example, been extensively used by Ukraine for battlefield casualty evacuation, front-line resupply, combat engineering, mine laying and mine clearing.

In these instances, their smaller size, substantially lower cost, versatility and lower profile relative to traditional crewed vehicles (which makes them harder to detect) hold benefits that substantially outweigh the drawbacks. And while they are remotely operated so do not drastically reduce overall personnel requirements, if the ground robot is destroyed, its operator is not.

For Ukraine, the strategic imperative to rapidly roll out ground robots is enormous. Four years of war against a numerically larger opponent has imposed huge challenges on its ability to continue recruiting and deploying a large enough force to safeguard its sovereignty.

On a battlefield where the enemy can see and hit almost anything moving within 20 kilometres of the front line, swapping irreplaceable humans for cheap and replaceable robots is a necessary condition for staying in the fight long enough to win it.

But for the immediate future at least, robots are more likely to support that fight, rather than lead it.

The Conversation

Jacob Parakilas does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Robots just captured a Russian position in Ukraine – but don’t worry about real-life Terminators just yet – https://theconversation.com/robots-just-captured-a-russian-position-in-ukraine-but-dont-worry-about-real-life-terminators-just-yet-280959

New advice on avoiding British cod: how to make sure your fish and chips are sustainably sourced

Source: The Conversation – UK – By Mara Fischer, PhD Candidate, School of Environment, University of Exeter

Stepanek Photography/Shutterstock

Diners may soon need to rethink a staple of the classic English fish supper. The Marine Conservation Society, an environmental charity in the UK, recently downgraded all UK cod stocks and removed them from its list of sustainable seafood.

The Marine Conservation Society’s Good Fish Guide, a tool designed to help consumers make sustainable seafood choices, now lists Atlantic cod from the Arctic, northern shelf, and British seas with the worst possible rating: “avoid”. This reflects severe declines in population status.

The guide recommends that cod lovers seek out fish from further north, from Icelandic waters, where it’s still available in quantity. But the cod served up in most fish and chip shops right now should be considered under threat and avoided, unless specified as Icelandic.

This warning echoes one of the most dramatic collapses in fisheries history, the collapse of Newfoundland cod stocks in Canadian waters in 1992. Despite mounting scientific warnings, fishing continued until stocks crashed, triggering a moratorium that put tens of thousands out of work. More than 30 years later, recovery remains incomplete. The lesson is clear: once a fishery collapses, recovery is slow and uncertain. Yet current trends suggest that we are not heeding the lessons of history.

The rise of cod

The English love affair with cod goes back a long way. Archaeological evidence shows that cod was traded as early as the Viking age, driven in part by the rise of Christianity across Europe. Dried and salted cod – a protein-rich food which could be stored for months without spoiling – offered an alternative to meat on Fridays and during Lent, fuelling the growth of the cod trade.

Even centuries ago, consumer demand may have outstripped local supply. Analysis of fish provisions from the sunken Tudor warship Mary Rose suggests some cod was sourced from distant waters, including Iceland.

dried fish hanging
Traditional drying of cod in the Lofoten Islands, Norway.
ArtBBNV/Shutterstock

This demand intensified with industrialisation. As cities expanded, so did the need for cheap protein. Enter the national dish: fish and chips. Cod was no longer salted or dried but fried. Its dominance was enabled by the introduction of steam-powered trawlers and the use of ice in the late 19th century, which allowed British fleets to fish further and more intensively.

Cod landings subsequently boomed, drawing heavily on stocks in northern Atlantic waters. Following the mid-20th century cod wars, the cod eaten in the UK was increasingly imported from locations such as Iceland, although local fisheries continued to contribute to our beloved fish supper. But poorly managed fisheries, with fishing quotas often set above scientific advice, led to declines in stocks around the UK.

Why are cod not recovering?

Today, cod populations around the UK are so depleted that the International Council for the Exploration of the Sea (ICES) has advised zero catches for some stocks for several years. Yet catch limits have consistently been set above scientific advice, for example, allowing catches of around 14,000 tonnes of North Sea cod in 2026. This is no exception as 58% of all UK fishing quotas for 2026 exceed recommendations from ICES.

man standing in boat pulling out fish from sea
Cod have been overfished.
Birgit Ryningen/Shutterstock

Even where quotas are reduced, recovery is hampered by how many fisheries operate in practice. Cod are frequently caught in mixed fisheries that primarily target other species such as haddock. However, the use of unselective and destructive gears such as bottom trawls (heavy fishing nets that get dragged along the seabed) means that cod continues to be removed from the ecosystem, even when it is not the intended target.

Climate change adds further pressure. As waters warm, cod are forced northwards or into deeper waters, disrupting ecosystems and fisheries. Warmer seas can also affect reproduction, reducing the survival of eggs and larvae, while changes in ocean currents and availability of prey make it harder for populations to recover.

Together, these factors mean that the outlook for local cod stocks is increasingly dire.




Read more:
Half the UK’s fish stocks are overfished – but the evidence shows how they can be revived


The future of cod in the UK

Despite these challenges, cod is likely to remain on the menu. But where it comes from – and how it is managed – matters. Not all cod stocks are in crisis.

Atlantic cod that is caught in Iceland’s waters by long lines and nets, for example, remain a “best choice” on the Good Fish Guide. This reflects the use of fishing gears with lower risk of damage to ocean habitats plus strong management aligned with scientific advice. Similarly, other fisheries show that recovery is possible when limits are set and followed appropriately, although climate change adds increasing uncertainty for many species. In contrast, Atlantic cod caught from stocks in the Arctic, North Sea and other seas around Britain are all labelled “avoid”, regardless of how they are caught.

This makes our roles as consumers that much more complex – and important. Asking where fish comes from and how it was caught can help drive demand towards better managed stocks. If that information is unavailable, switching to alternatives, such as hake, can reduce pressure on depleted cod populations. If you are not sure, check for the stocks and catch methods labelled green on the Good Fish Guide, or that have been awarded a blue tick from the Marine Stewardship Council.

Our long relationship with cod has shaped diets, economies and cultures. But history shows that without stronger alignment between science, policy and informed consumer choice, the future of cod in the UK may be far from guaranteed.

The Conversation

Mara Fischer receives funding from the Convex Seascape Survey.

Ruth H. Thurstan works for The University of Exeter. She receives funding from the Convex Seascape Survey and the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (grant agreement no. 856488).

ref. New advice on avoiding British cod: how to make sure your fish and chips are sustainably sourced – https://theconversation.com/new-advice-on-avoiding-british-cod-how-to-make-sure-your-fish-and-chips-are-sustainably-sourced-280667

Lee Cronin’s The Mummy – an uninspired, unscary gore fest that demonises disability and leans into stereotypes of Egypt

Source: The Conversation – UK – By Matt Jacobsen, Senior Lecturer in Film History in the School of Society and Environment, Queen Mary University of London

Production company Blumhouse has taken a gamble by featuring director Lee Cronin in top billing in his third film’s marketing campaign. Announcing Cronin as a horror auteur, the film’s full title is Lee Cronin’s The Mummy. This is an odd move for a director with only two (admittedly strong) previous features under his belt. It is perhaps a strategy to differentiate the film from the Brendan Fraser-led adventure series or the abysmal Tom Cruise vehicle from 2017.

Lee Cronin’s The Mummy features little that ties it to the long legacy of previous films with the same title. The template for The Mummy was established by Boris Karloff’s looming Imhotep of 1932 and Christopher Lee’s Kharis of 1959, both Ancient Egyptians who return to life after being exhumed by Western archaeologists. Lee Kronin’s The Mummy is less about the plundering of Ancient Egyptian tombs and more about tapping into the elemental fears of parenthood – as Cronin explored to great effect in his previous two films.

Cronin’s first feature was the independent horror film The Hole in the Ground (2019), which was a confident and capable outing. Like several other first-time filmmakers of independent horror film in the 2010s (Mike Flanagan, Corin Hardy, Rose Glass) Cronin was rapidly courted by Hollywood. He was then handed the reins of the most recent instalment of Sam Raimi’s well-loved Evil Dead series. Cronin wrote and directed the savvy, elementally terrifying Evil Dead Rise (2023), which transported that franchise from its familiar cabin-in-the-woods setting to an urban high rise with brilliant results. His third feature isn’t up to par with these, sadly.

In The Mummy’s harrowing opening, every parent’s worst nightmare is realised as nine-year-old Katie is snatched by a stranger who entices her with sweets at the bottom of the family’s garden in Cairo. The action cuts to eight years later and Katie is found alive having been mummified – buried in an Egyptian sarcophagus wrapped in bandages. The returned Katie is erratic, non-verbal and animalistic, needing attentive care.

In the build-up to revelations about what Katie has endured and how she has remained alive, her parents face the challenges of caring for a child with significant physical and behavioural needs. Played differently, this theme could be explored with sensitivity and insight. However, in an early scene that foreshadows the kind of excessive body horror that Cronin is heading towards in the film’s climactic scenes, the parents try to clip Katie’s overgrown toenail, resulting in the gruesome peeling off of her leg’s atrophied skin.

This harrowing scene sets the film’s tone. Cronin is far more interested in pummelling his audience with relentless gore and shallow shock tactics that seriously exploring the story’s themes.

The Mummy revisits familiar tropes from horror classics rather than searching for its own identity. Eventually, and far too conventionally, the film’s focus on the creepy possessed child owes far more to the well-worn tactics of The Exorcist(1973). Like The Exorcist’s Regan, Katie’s body contorts and she becomes vicious and foul-mouthed. Modern special effects bring to life her abject bodily fluids vividly. While Cronin drew from The Exorcist enjoyably in Evil Dead Rise, threats to the American family are rehashed less successfully here.

Horror can be a powerful way to explore themes of parental sacrifice and struggle sensitively and meaningfully. Jennifer Kent’s sublime and influential The Babadook (2014) reworked the conventions of uncanny horror to produce an empathetic and moving depiction of a grieving mother caring for a child with psychological needs. Cronin’s breakout The Hole in the Ground was reminiscent of Kent’s film for its depiction of a mother faced with her son’s increasingly erratic and disturbing behaviour. It is difficult to imagine, however, how a horror film in The Mummy’s mode of intense gore and aggressive violence could bear the weight of the topic.

Troublingly, the film derives spectacle from representing disability with unsettling horror. For instance, when Katie’s wheelchair hovers and clatters its wheels menacingly against the ground, it moves uncomfortably towards the criticism of the wider genre for using disability as shorthand for wickedness and immorality.

The characterisation is also disappointingly facile and shallow. Cronin’s script’s attempts to humanise his traumatised family, before the inevitable frenzy of violent set-pieces, fall flat. This is not helped by contrived moments and one-dimensional performances across the board.

Given the notoriety of prior horror films that present Egyptian history and culture as strange and exotic, playing into anxieties around “foreignness”, we should reasonably expect this film to work hard to avoid stereotypes and cliches. But it doesn’t.

The familiar laying on of sandstorms, hieroglyphics, beetles, scorpions and other tired signifiers of Egyptian culture do little to work against a white western gaze. The casting of Egyptian actors may have offset issues with cultural representation. But the main Egyptian actor plays a barely fleshed-out detective (May Calamawy, Marvel TV’s Moon Knight) who is investigating the mystery of Katie’s disappearance. She also adds little beyond tired police movie tropes.

Cronin’s third film continues the kind of punk rock horror aesthetic that the director is becoming known for. But, it is not a showcase for the evident talent that he displayed in his first two films. In the search for fairground-style gasp-out-loud horror moments, The Mummy becomes unhinged and unruly, descending into a formless barrage of gory body horror and careening violence.

The film is overlong at 133 minutes and outstays its welcome. Despite its length, there is surprisingly little suspense and little that is actually scary. Its sharp shocks would have been better delivered within the tighter structure usually expected from a genre film like this, or the running time could be better employed to build tension and character.

The Conversation

Matt Jacobsen does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Lee Cronin’s The Mummy – an uninspired, unscary gore fest that demonises disability and leans into stereotypes of Egypt – https://theconversation.com/lee-cronins-the-mummy-an-uninspired-unscary-gore-fest-that-demonises-disability-and-leans-into-stereotypes-of-egypt-280957

Why the ceasefire in Lebanon is unlikely to change much on the ground

Source: The Conversation – UK – By Tarek Abou Jaoude, Lecturer in Comparative Politics, Queen’s University Belfast

Following direct talks between Lebanese and Israeli officials, a ten-day ceasefire has been agreed between the two countries. It is currently unclear whether Hezbollah, the Iran-backed group that has been fighting Israel in southern Lebanon since early March, has agreed to observe the temporary cessation of hostilities.

If it holds, the ceasefire will be welcomed by the Lebanese government. This latest conflict has brought the state to its knees. Not only is Lebanon’s government logistically and administratively stretched, having to find shelter for and relocate over a million displaced citizens, it is also in a fragile position politically.

Having taken the decision to ban Hezbollah’s military activities and restrict its role to the political sphere on March 2, the government is now attempting to establish full control over the capital of Beirut. The cessation of hostilities between Israel and Hezbollah is thus essential to avoid a complete breakdown in state authority.

The ceasefire also comes despite Israel’s seemingly mixed stance on ending its conflict with Hezbollah. Hours after the signing of an earlier ceasefire between the US and Iran, Israel launched over 100 missiles towards Lebanese territory. The attacks, which came amid confusion over whether Lebanon was covered by the deal, killed more than 300 people in what has become known as “Black Wednesday” in Lebanon.

There has been much speculation about the strategy behind this attack. Some argued the Israelis were taking advantage of the unclear situation. Others saw the attack as a deliberate tactic to derail the entire negotiation process, knowing Iran would insist on Lebanon’s inclusion in any talks. But it soon became clear that the Trump administration preferred for hostilities to, at the very least, de-escalate in Lebanon.

With the US insisting that Israel preserves “its right to take all necessary measures in self-defense, at any time, against planned, imminent or ongoing attacks”, it is unclear what kind of ceasefire will be implemented. The most likely outcome is a scenario in which Israeli attacks on Beirut end, while troops continue their skirmishes with Hezbollah in and around the southern villages.

Hezbollah has already insisted the ceasefire must not allow Israeli troops freedom of movement in the south. However, the Lebanese army has reported that there have been “several Israeli attacks” in southern Lebanon since the ceasefire took effect.

Long road ahead

With ten days to seek further agreements, there is still much left to be negotiated. An ultimate goal for the Lebanese government will be to secure full Israeli withdrawal from the territories it has captured along the border.

The Israeli military has taken full control of the first line of villages and towns along the border and is currently sitting a few kilometres inside Lebanese territory. There has been irreparable damage to buildings in the villages it has occupied, leading some to compare the destruction to that seen in Gaza.

But there is no obvious reason for Israel to withdraw. Local media has reported that Israel is insisting on a long-term security zone in Lebanon of up to 0.8km to provide protection from future Hezbollah rocket attacks. A second zone up to the Litani River – around 30km from the border – would remain under Israeli control and would be “gradually” handed back to the Lebanese armed forces.

A 2006 UN resolution demanded the withdrawal of all armed groups, except for the Lebanese army and UN peacekeepers, from this area. However, the resolution has been violated repeatedly both by Israel and Hezbollah. Israel’s defence minister, Israel Katz, has previously stated that this larger security zone is an objective for his country’s military.

There is also no real bargaining chip the Lebanese government can play. The only resistance to Israel’s presence on Lebanese soil in the current conflict is being provided by Hezbollah, which is not represented in the direct talks. And it is clear by now that Israeli officials simply do not trust the Lebanese state’s ability to control or rein in the Iran-backed party.

There are rumours that Israeli and Lebanese officials may be working on a possible peace treaty, emulating the 1978 Camp David accords. These accords allowed Egypt to reclaim the Sinai peninsula in exchange for peace with Israel. A similar treaty could make Israeli withdrawal from Lebanon possible.

But there are three factors that make a peace treaty unlikely. First, the issue of peace with Israel remains highly divisive in Lebanon. In 2022, surveys implied that roughly 17% of Lebanese people supported normalisation with Israel, a relatively high percentage among Arab countries.

After two conflicts since then, it is unclear how these numbers now break down. But recent Shia-dominated protests in Beirut show just how divided the country remains over this issue. At a protest on April 13, demonstrators called Lebanon’s Sunni prime minister, Nawaf Salam, a “Zionist” for agreeing to engage in talks.

Second, it is unclear that the Israelis themselves are looking for peace. There is considerable division among members of the Israeli cabinet on this issue. While the foreign minister, Gideon Saar, has insisted that “peace and normalisation” are desired, the more extreme right-wing minister Bezalel Smotrich has continued to call for the permanent annexation of southern Lebanon.

And third, what remains an insurmountable reality for both countries is Hezbollah itself. The party’s reason for existence is to resist Israeli occupation and it has said over the years that it would only hand over its weapons in exchange for full Israeli withdrawal and if a Lebanese state emerges that showcases an ability to repel Israeli forces on the border.

The fact that the Lebanese armed forces have not entered the current fight with Israel and have evacuated positions in the south ahead of Israeli incursions will not encourage Hezbollah or its base to trust any peace process and lay down its arms peacefully.

All of this leaves Lebanon with few realistic outcomes. What people inside the country now fear is a return to the status quo: a fragile and unobservable ceasefire, Israeli troops stationed in Lebanese territory and a state stuck in gridlock.

The Conversation

Tarek Abou Jaoude receives funding from The Leverhulme Trust.

ref. Why the ceasefire in Lebanon is unlikely to change much on the ground – https://theconversation.com/why-the-ceasefire-in-lebanon-is-unlikely-to-change-much-on-the-ground-280851

How we worked out a fossilised ‘pterosaur’ was actually a fish – new research

Source: The Conversation – UK – By David Unwin, Reader in Palaeobiology, School of Heritage and Culture, University of Leicester

Artist’s impression of a pterosaur with a fish in its mouth. Fossils of one have sometimes been mistaken for the other. Warpaint/Shutterstock

Georges Cuvier, the 19th-century French anatomist who first recognised pterodactyls as flying reptiles, wrote that “of all the beings whose ancient existence has been revealed to us, [they are] the most extraordinary”.

Now known as pterosaurs, this extraordinarily diverse, highly successful group lived alongside dinosaurs for more than 150 million years, occupying habitats around rivers, lakes, coasts and even the open ocean. While some species were quite small (no bigger than a pigeon), a few evolved into flying giants with wingspans exceeding ten metres.

The Upper Jurassic pterosaur Rhamphorhynchus
The Upper Jurassic pterosaur Rhamphorhynchus (Bürgermeister-Müller-Museum, Eichstatt Germany).
David Unwin, CC BY

Pterosaurs are unlike any other animal, living or extinct. Despite this, a surprisingly long list of fossils have been misidentified as pterosaurs – including a specimen of the earliest bird, Archaeopteryx, and an extinct aquatic reptile, Tanystropheus, which had extraordinarily long neck vertebrae like some pterosaurs.

One of the most renowned misidentifications occurred in 1939 when Ferdinand Broili, a Munich-based palaeontologist, described a new pterosaur, Belonochasma, based on what appeared to be the remains of jaws bearing hundreds of long, fine teeth.

Several decades later, Franz Mayr, founder of the Jura Museum in Eichstätt, Germany, recognised the true nature of these remains. The “teeth” were actually gill filaments. More complete fossils, including remains of the body, showed unequivocally that Belonochasma was actually a fish.

Back in the 1930s, it could be years before publications became widely known and decades before errors were corrected. The gentle pace of research meant misidentifications usually had little impact.

Contrast that with today’s digiverse. Now, most palaeontologists are aware of newly published research within days or even hours of publication – and can immediately start downloading datasets that include it.

This rapid dissemination and repurposing of data – in the case of palaeontology, relating to age, geographic location and bodily structure – mean that errors can also spread very quickly.

A highly unusual fossil

In November 2025, a team of Brazilian palaeontologists led by Rodrigo Pêgas, based in the Museum of Zoology at the University of São Paulo, described what they took to be a new pterosaur. Bakiribu waridza had been found in 110 million-year-old Early Cretaceous rock of Araripe in northeast Brazil.

This highly unusual fossil apparently comprised several small fish plus the remains of not one but two pterosaurs – each represented by what were claimed to be fragmentary remains of jaws, plus hundreds of fine teeth.

Fossil remains of the ‘pterosaur’ Bakiribu reinterpreted as a fish.
Fossil remains of the ‘pterosaur’ Bakiribu, which has been reinterpreted as a fish (scale bar 50mm).
David Unwin, CC BY

Pêgas and colleagues speculated that these specimens were contained in dinosaur vomit (known as regurgitalite) so large that it could only have been produced by a huge predator – perhaps a Spinosaurus-like theropod dinosaur. Enthusiastically promoted, the newly announced Bakiribu drew much attention, including numerous palaeoartists’ impressions and its own Wikipedia page.

However, a group of us who study pterosaurs – including David Martill and Roy Smith from the University of Portsmouth, and Sam Cooper from the Stuttgart State Museum of Natural History – soon spotted some problems.

Bakiribu (top) compared with the Upper Jurassic fish Belonochasma.
Bakiribu (top) compared with the Upper Jurassic fish Belonochasma (scale bar: 10mm).
David Unwin, CC BY

Comparing our extensive collection of high-resolution digital photographs of pterosaur fossils with published images of Bakiribu, it appeared that its “teeth” did not extend along both sides of the jaw in symmetric fashion, as with all toothed pterosaurs. They also lacked a root, which is omnipresent in pterosaur teeth. Moreover, features such as dentine and dentine tubules, typical of pterosaur teeth, appeared to be absent.

We also noticed that bone fragments associated with the supposed jaws did not match any cranial element of pterosaurs, and their coarse external texture was unlike the smooth finish typical of pterosaur bone.

So, what was Bakiribu? Martill recalled the 1939 Belonochasma episode, which prompted me to examine the original fossil during a visit to Munich earlier this year. It was immediately clear that Belonochasma and Bakiribu were remarkably similar.

Comparing Bakiribu with the fossil remains of ancient bowfins discovered in the same rocks, and taking advantage of Cooper’s expertise in fossilised fish, we were able to identify the supposed teeth of Bakiribu as gill filaments, and the associated bony elements as branchials (structures that support the gills). Like Belonochasma, the Bakiribu fossil was in fact a collapsed gill arch of a large fish, preserved alongside two smaller fish.

The bowfin Amia calva.
The bowfin Amia calva.
Zachary Randall, CC BY

A paper detailing our findings has just appeared in the Annals of the Brazilian Academy of Sciences. Pegas and colleagues, who disagree with our conclusions, were offered an opportunity to publish a response in the same issue of the journal, but did not take up this invitation.

Misidentifications matter more now

All palaeontologists – myself included – have misidentified at least one fossil during their careers. The fragmentary, incomplete nature of many fossil remains means erroneous identifications are as inevitable as death and taxes.

But in today’s world of rapid international communication, it is all the more important that they are highlighted as quickly as possible. Fortunately, the digiverse can also help do this.

Within five weeks of the first appearance of Bakiribu, our team flagged the possibility of a misidentification by posting a reinterpretation as a non-peer reviewed “preprint” article. And only five months later, our fully peer-reviewed account was published.

The speed of the digiverse means this alleged regurgitalite has rapidly been regurgitated. But doubtless many other misidentified fossils remain unsuspected, and more mistakes will be made in the future.

Once spotted, however, at least we have the tools to quickly verify such errors, in order to restrict their impact on the body palaeontologic.

The Conversation

David Unwin does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. How we worked out a fossilised ‘pterosaur’ was actually a fish – new research – https://theconversation.com/how-we-worked-out-a-fossilised-pterosaur-was-actually-a-fish-new-research-280848