Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ?

Source: The Conversation – France in French (3) – By Jean-Pierre Darnis, Full professor at the University of Côte d’Azur, director of the master’s programme in “France-Italy Relations”. Associate fellow at the Foundation for Strategic Research (FRS, Paris) and adjunct professor at LUISS University (Rome), Université Côte d’Azur

La stabilité politique et économique de l’Italie depuis l’arrivée au pouvoir en 2022 de Giorgia Meloni incite certains observateurs français à affirmer que sa gouvernance démontre la capacité d’un parti de droite radicale à gérer correctement un grand État d’Europe – ce qui devrait rassurer tous ceux qui redoutent une éventuelle victoire du Rassemblement national en France. Pourtant, quand on y regarde de plus près, les cas de Fratelli d’Italia et du RN sont très dissemblables, le parti italien ayant déjà eu, avant que sa cheffe n’accède aux plus hautes responsabilités, une longue habitude de participer à des coalitions gouvernementales. Et sa politique ne se place pas vraiment en rupture avec celles des gouvernements précédents. En réalité, s’il y a des leçons à tirer du cas italien, elles ont trait moins à l’action de Giorgia Meloni qu’à certaines spécificités d’un système parlementaire pourtant longtemps décrié de ce côté-ci des Alpes.


La crise politique française suscite des comparaisons fréquentes avec le cas italien. Alors que la France est entrée depuis 2024 dans un profond cycle d’instabilité politique, l’Italie, par contraste, semble remarquablement stable.

Le 18 septembre dernier, pour la première fois, le taux d’intérêt exigé par les investisseurs pour détenir de la dette publique italienne s’est établi au même niveau que celui requis pour la dette publique française – une convergence qui traduit l’appréciation que font les marchés de la situation budgétaire et politique italienne par rapport au cas français.

La mise en perspective des deux pays conduit certains analystes à exprimer des jugements favorables à l’égard du gouvernement Meloni, présenté comme un garant de stabilité.

Tout d’abord il s’agit de vanter la stabilité politique et budgétaire italienne par rapport à l’instabilité française et à la tendance de la France à accumuler les déficits. Ensuite, le cas italien sert de prétexte à une légitimation de l’extrême droite dans son exercice du pouvoir : le succès de Giorgia Meloni démontrerait qu’un parti extrémiste pouvait évoluer et se transformer en force efficace de gouvernement.

Meloni, héritière d’une longue lignée de coalitions entre centre droit et droite radicale

Ces deux analyses apparaissent à bien des égards relever de projections des visions françaises sur la réalité italienne, plutôt que de véritables prises en compte des dynamiques à l’œuvre dans la péninsule.

Si nous nous intéressons à la trajectoire de la famille politique de Giorgia Meloni, on observe que c’est en janvier 1995 que le Movimento Sociale Italiano (MSI-DN), créé en 1946 sur une ligne clairement post-fasciste, prend un virage modéré et gouvernemental avec sa transformation en Alleanza Nazionale.

Ce tournant intervient dans un contexte où des coalitions de droite mises en place à partir de 1994 voient s’associer le parti de centre droit créé par Silvio Berlusconi, Forza Italia, avec les autonomistes septentrionaux de la Lega d’Umberto Bossi et la droite nationaliste réformée dirigée par Gianfranco Fini.

Pendant les trente années suivantes, on verra la droite italienne solidifier ses réflexes de coalition tripartite mais aussi se mouler dans le jeu institutionnel et parlementaire : Giorgia Meloni est à la fois l’héritière de Silvio Berlusconi lorsqu’elle récupère le leadership sur ce camp lors des élections de 2022, mais aussi le produit d’une culture parlementaire et gouvernementale, car elle a été ministre de 2008 à 2011.

Elle est donc la nouvelle leader d’un camp qui a été façonné par les neuf années de pouvoir exercé sous la direction de Silvio Berlusconi. Certes, son discours conserve des accents nationalistes et conservateurs, en particulier lors de la campagne électorale de 2022, mais la continuité du substrat institutionnel de sa famille politique est un élément fondamental, largement sous-évalué par les commentateurs.

L’accession au pouvoir de Giorgia Meloni représente un renouvellement au sein de la droite italienne car elle conquiert en 2022 le sceptre d’un Silvio Berlusconi diminué (il décédera quelques mois plus tard), mais ne constitue pas une rupture extrémiste.




À lire aussi :
Italie : Silvio Berlusconi, ou la « révolution libérale » qui n’a jamais eu lieu


La coalition tripartite qu’elle met en place en 2022 est la même que celle qui avait été inventée par Silvio Berlusconi en 1994. Ainsi ne faut-il pas s’étonner des éléments de continuité que l’on constate dans la pratique gouvernementale de la droite italienne depuis Berlusconi jusqu’à Meloni.

Quant à l’affirmation selon laquelle la droite italienne aurait récemment vécu une sorte de déradicalisation, elle doit être fortement nuancée : on a assisté depuis 2013 à un durcissement de la Lega de Matteo Salvini, qui a redéveloppé un discours à la fois hostile à l’immigration et pro-russe. Il y a donc des effets de vases communicants à la fois en ce qui concerne les électorats et l’idéologie des différents partis de droite en Italie.

La continuité dans les actions de gouvernement constitue également la toile de fond d’une politique budgétaire prudente. Ici encore, il ne s’agit pas d’une nouveauté, car la politique de sérieux budgétaire est relativement traditionnelle en Italie. Elle avait déjà été observée sous le gouvernement précédent, celui de Mario Draghi.

En matière budgétaire, il convient de relever que l’un des principaux points noirs de la finance publique italienne a été la politique dite du « superbonus » pour les rénovations immobilières, un système de subventions créé par le gouvernement Conte II en 2020, qui a coûté plus de 127 milliards d’euros.

L’efficacité économique de cette dépense concentrée dans l’immobilier est largement critiquée et l’une des actions les plus remarquables du gouvernement Meloni a été d’arrêter l’hémorragie que la procrastination des mesures entraînait pour les finances publiques en modifiant la réglementation de l’allocation de subventions. Mais, dans le même temps, le gouvernement italien peine à dépenser les budgets obtenus dans le cadre du plan de relance européen (PNRR) – un indicateur négatif en matière d’efficacité qui est bien loin de représenter un « miracle ».

Enfin il faut relever que les finances publiques italiennes bénéficient de l’inflation, qui provoque une hausse des revenus et, donc, un effet seuil d’augmentation des recettes fiscales par le jeu du dépassement des tranches d’imposition.

En Italie, une habitude bien ancrée de création de coalitions

Les institutions italiennes sont caractérisées par leurs capacités d’adaptation – un facteur qui différencie profondément l’Italie de la France.

En 2018, les élections législatives italiennes n’ont pas permis de dégager une majorité, l’électorat s’étant réparti de façon relativement équilibrée entre la droite, la gauche et le Mouvement 5 étoiles. Après des semaines de tractations et d’errements, c’est finalement un accord original entre le Mouvement 5 étoiles et la Lega qui allait permettre la naissance de l’exécutif dirigé par Giuseppe Conte. Cette formule mettait en place un exécutif populiste qui s’est rapidement distingué par des mesures de dépenses (mise en place d’un revenu de citoyenneté), une position virulente en matière d’immigration mais aussi par une politique internationale marquée par les réflexes pro-russes et pro-chinois, ainsi que par une crise des rapports bilatéraux avec la France.

Face à cette poussée populiste, le jeu parlementaire d’une part et la fonction de garant exercée par le président de la Republique Sergio Mattarella de l’autre ont contribué non seulement à mitiger la portée des actions extrémistes, mais aussi à contribuer en 2019 à la mutation de la coalition de soutien du gouvernement Conte 2, qui associera le Mouvement 5 étoiles à la gauche classique en excluant la Lega, ce qui relancera une dimension bipolaire gauche/droite.

Cet exemple récent montre comment dans un système comme celui de l’Italie, caractérisé par l’absence de figure comparable à celle d’un président de la République française, se définit un jeu politique ouvert qui passe par la recherche de coalitions qui font des partis les acteurs centraux du jeu politique.

Certes, le président italien joue un rôle crucial lors des crises politiques, mais il apparaît comme un arbitre et non pas comme le chef d’un camp, ce qui lui permet d’exercer un rôle de médiation mais aussi de ne pas confondre ses missions avec celle du président du conseil des ministres, chef de l’exécutif.

La présidence de la République est une institution qui a repris en Italie certains traits de la monarchie constitutionnelle précédente, avec un rôle « au-dessus des partis » d’un président qui évite soigneusement de descendre dans la mêlée.

Les institutions de la république italienne, dont la Constitution a été adoptée en 1947, ne sont pas sans rappeler celles de la IVe république française. La comparaison entre l’Italie et la France permet de pointer du doigt le phénomène d’hyper-présidentialisation à l’œuvre en France, en particulier depuis la réforme constitutionnelle de 2000, une caractéristique qui apparaît comme un blocage dans un Parlement qui n’est plus bipolaire.

Pas de modèle Meloni, mais un modèle italien ?

L’exemple italien n’est pas celui d’une modération miraculeuse et récente d’une droite extrémiste sous l’effet d’une supposée « méthode Meloni ». Silvio Berlusconi a écrit l’histoire d’une droite italienne qui est d’abord passée par une hégémonie sur le centre avant d’arriver à un repositionnement des différentes forces politiques, un parcours dont Giorgia Meloni est l’héritière. Il ne s’agit donc pas d’un scénario que l’on puisse plaquer sur la trajectoire du Rassemblement national français.

En revanche, l’observation des institutions italiennes est riche d’enseignements, en faisant voir la possibilité d’un système sans président de la République à la française – une caractéristique qui est d’ailleurs commune à la majorité des pays membres de l’Union européenne. Ici encore, ce n’est probablement pas l’analyse de ceux qui à Paris voudraient voir dans Giorgia Meloni l’exemple d’un césarisme triomphant. Mais c’est la véritable leçon, parlementaire et démocratique, que l’Italie peut enseigner.

The Conversation

Jean-Pierre Darnis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ? – https://theconversation.com/face-a-sa-crise-politique-la-france-a-t-elle-des-lecons-a-tirer-de-litalie-265831

De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ?

Source: The Conversation – France (in French) – By Eric Bruillard, Enseignant-chercheur, Université Paris Cité

Comme Wikipédia auparavant, les outils d’intelligence artificielle générative sont sujets à une méconnaissance et à des préjugés chez les élèves et les étudiants, voire chez les enseignants. Comment les aider à mieux comprendre le fonctionnement de ces outils numériques et éviter l’anthropomorphisme ? L’usage de métaphores serait-il une piste fructueuse ?


Beaucoup de discours actuels sur l’utilisation des intelligences artificielles génératives (IAG) en éducation sont similaires à ceux qui ont longtemps accompagné l’utilisation de Wikipédia.

D’abord, le manque de confiance que l’on peut leur accorder, accompagné d’un recensement d’erreurs que l’on a pu trouver ici et là. Ensuite, une accusation de paresse à l’encontre d’utilisateurs en faisant une utilisation abusive sans réécriture ni vérification. Enfin, un dénigrement diversement fondé sur leur qualité et une volonté initiale d’interdire leur utilisation, reposant en fait sur le problème, pas toujours bien énoncé, que leur utilisation remet en question les travaux et évaluations demandés aux élèves.




À lire aussi :
L’IA peut-elle nous dispenser de l’effort d’apprendre ?


Les similarités énoncées cachent cependant des différences importantes entre Wikipédia et les IAG, notamment dans la compréhension ou l’incompréhension de leur fonctionnement et des implications de cette méconnaissance. Pourtant, la circulation de métaphores, tant pour Wikipédia que pour les IAG, peut faciliter des utilisations plus diversifiées et plus intéressantes.

Wikipédia : des étudiants très ignorants de son fonctionnement

J’interroge depuis une vingtaine d’années les étudiants de master sur leurs connaissances de Wikipédia et leurs utilisations. Pour la plupart d’entre eux, les principes fondateurs du projet, pourtant seulement au nombre de cinq – encyclopédisme, neutralité de point de vue, licence libre, savoir-vivre communautaire et souplesse des règles – sont totalement inconnus. Pire, les possibilités visibles dans l’interface standard, comme langues, historique, discussion, n’ont jamais été repérées.

Utilisateurs pourtant réguliers, ils n’ont pas eu la curiosité d’aller explorer ce que pouvait leur offrir Wikipédia. Ils croient comprendre globalement comment cela marche, ce qui ne leur permet pas de développer des utilisations approfondies d’un projet encyclopédique multilingue qui donne à voir son processus collectif de rédaction.

Ils souscrivent à une sorte de maxime simpliste : « Tout le monde peut intervenir dans un article (sous-entendu n’importe qui, des personnes incultes ou malintentionnées), DONC cela ne peut pas être de bonne qualité. »

Comment réfuter une telle affirmation ? D’un point de vue théorique, elle est vraie, les contenus (enfin presque tous) peuvent être sans arrêt modifiés. Mais d’un point de vue pratique, rares sont les personnes qui adoptent un comportement destructeur, l’organisation de Wikipédia permettant de détecter rapidement les interventions « déplacées » (avec des systèmes d’alerte automatiques, des robots, etc.). Les articles sont en grande majorité stables et de bonne qualité. D’ailleurs, dès 2004, des études ont révélé que le taux d’erreur dans les articles de Wikipédia n’était pas plus élevé que dans les grandes encyclopédies.

Cette mauvaise connaissance a des conséquences dont veut se prémunir Wikipédia. Dans les avertissements généraux, elle précise qu’elle « ne garantit pas la validité, l’exactitude, l’exhaustivité, ni la pertinence des informations contenues sur son site ». Cela débouche sur une sorte de lieu commun pour l’utilisation : « Wikipédia doit être un point de départ pour la recherche, et non une destination, et il est conseillé de confirmer de manière indépendante tout fait présenté ». Sage conseil. Mais quand on demande aux étudiants s’ils le suivent, la réponse est… non.

IA génératives : un fonctionnement opaque et des hallucinations

Concernant l’intelligence artificielle, on est passé de l’IA comme champ scientifique aux IA, entités aux contours mal définis, susceptibles de produire rapidement des textes, images, vidéos, etc. Outils de productivité personnelle ou collective, leurs limites et préjudices sont connus et partagés :

  • Des biais constitutifs et des hallucinations : des documents du passé, des discriminations, des hallucinations (voir les fameuses mains à 6 doigts ou l’invention de fausses références), caractéristiques inhérentes à leur fonctionnement…

  • Une absence de compréhension : bien exprimée par la métaphore du perroquet stochastique, une illusion de compréhension renforcée par un discours dans un registre anthropomorphe, pas de contrôle global, défaut d’explicabilité (bien que cela s’améliore)…

  • Une qualité de réponses très variable qui peut dépendre du coût payé par l’utilisateur, ce qui interroge sur ce qui va se passer dans le futur, avec la nécessité de générer suffisamment d’énergie (problème écologique).

Apprendre à les utiliser est un objectif que l’école se doit d’assumer. Mais, comment ? Pour certains, il s’agit de montrer leur fonctionnement interne. Cela a été rarement fait pour Wikipédia, les utilisateurs croyant le savoir. C’est proposé pour les IAG. Toutefois, l’écart entre les descriptions internes, tentant d’expliquer comment un grand modèle de langage génère des séries de tokens, et les réalisations auxquelles les utilisateurs sont confrontés sont tellement éloignées que cela ne semble pas être une bonne solution.

Des métaphores pour interroger les usages numériques

Proposer des séries de métaphores permet de mieux saisir aussi bien certains principes de fonctionnement que les modalités d’utilisation des intelligences artificielles génératives. Cela peut aider aussi à résister à des processus d’anthropomorphisation qui peuvent s’avérer dangereux. Parler de « couteaux suisses », « perroquets stochastiques », « stagiaires ivres » ou « seigneurs suprêmes » conduit à des compréhensions différentes de l’interaction avec les IAG.

Concernant Wikipédia, on constate l’absence de métaphores répandues, sauf des références un peu générales comme « une cathédrale en perpétuelle construction ». Demander à ChatGPT quelles images il proposerait permet d’en trouver d’autres comme le « palimpseste numérique », « la plus grande encyclopédie du monde… écrite au crayon » ou « un canari dans la mine de charbon pour la confiance numérique ! » Certaines avec des explications qui rendent compte du fonctionnement de Wikipédia :

« Le génome vivant de la culture mondiale : une encyclopédie comme organisme vivant, évolutif et sensible à l’environnement.
Le théâtre d’ombres de la neutralité : critique subtile de la neutralité éditoriale, jamais parfaitement atteinte. »

Toutes ces métaphores aident à construire une vision plus intéressante et plus critique de Wikipédia. C’est aussi le cas pour les IAG. Ainsi, à l’invite d’illustrer par des métaphores des cas d’hallucination des IA génératives, ChatGPT, fait preuve d’une certaine poésie. Il évoque :

« un ornithologue qui confond des oiseaux rares avec des créatures mythologiques » ;

« un conteur qui invente des détails pour rendre son histoire plus captivante » ;

« un chirurgien qui opère avec des instruments mal calibrés, produisant des résultats inattendus ».

Notons toutefois que ChatGPT se décrit toujours comme un humain, qui a des intentions. Difficile d’échapper à l’anthropomorphisation ! Avec le même prompt, Claude.ia a généré une présentation sur Internet, synthèse non anthropomorphe et plus intéressante. Décaler l’interrogation des IAG peut permettre de mieux comprendre leur fonctionnement.

The Conversation

Eric Bruillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ? – https://theconversation.com/de-wikipedia-aux-ia-comment-aider-les-eleves-a-comprendre-le-fonctionnement-des-outils-numeriques-265222

La science-fiction « déprimée » du cinéma américain

Source: The Conversation – France (in French) – By Samuel Saint-Pé, Docteur en études cinématographiques, Université Grenoble Alpes (UGA)

Plan tiré de _2001 : l’Odyssée de l’espace_, de Stanley Kubrick, 1968.

La science-fiction est un genre particulièrement poreux aux angoisses et aux conflits d’une époque, digérant certains faits sociaux, même de manière minime ou inconsciente. À ce titre, le cinéma de SF américain des années 2010 déploie un imaginaire particulièrement sombre.


L’humeur déprimée des films de science-fiction américains des années 2010 s’illustre par un rythme apathique, des décors brutalistes, des couleurs ternes et, plus généralement, un sentiment de flottement évanescent. Dans le sens psychiatrique du terme, cette déprime renvoie à un état général de découragement, de perte de dynamisme, se traduisant dans l’esthétique de certains films. Ce mouvement s’oppose à une science-fiction plus loquace, portée sur l’action et l’humour, à l’instar des films Marvel.

La filmographie de SF de Denis Villeneuve est la figure de proue de ces films moins expressifs (Premier Contact en 2016, Blade Runner 2049 en 2017, la saga Dune en 2021 et 2024), proposant une forme hybride de blockbuster « auteurisant ». Ce divertissement esthétisé se permet un ton plus grave, des mouvements de caméra plus lents, un montage moins cadencé, des couleurs moins vives ou encore une musique parfois minimale.

L’esthétique désenchantée de Dune.
Allociné

À la même période, d’autres films adoptent un ton similaire : parmi eux, Oblivion (Joseph Kosinski, 2013), Ad Astra (James Gray, 2019), ou plus récemment Spaceman (Johan Renck, 2024). Si la SF est perçue comme le miroir grossissant d’une époque, on peut se questionner sur les causes historiques de cette déprime cinématographique.

Le double « effet 2001 »

On peut voir dans cette forme apathique les conséquences d’un double « effet 2001 ». Le premier « effet 2001 », énoncé par le chercheur en études du son et du cinéma Michel Chion dans les Films de science-fiction (2009), décrit le bouleversement opéré par 2001 : l’Odyssée de l’espace (Stanley Kubrick, 1968) sur l’ensemble du genre.

Chion qualifie de « science-fiction implicite » une œuvre dont les éléments futuristes perçus à l’écran (technologie, environnement urbain et sauvage, géopolitique…) ne sont pas explicités par les dialogues. Cela demande ainsi au spectateur de faire appel à son interprétation du fonctionnement du futur, à l’opposé d’un cinéma plus explicatif – celui de Steven Spielberg et George Lucas, par exemple.

Les années suivantes, d’autres classiques du cinéma émergent, alignés sur cette « science-fiction implicite », comme Alien (1979) et Blade Runner (1982) de Ridley Scott. Si 2001 est considéré comme un jalon fondateur de la SF au cinéma, c’est entre autres parce qu’il ouvre la voie à des thématiques jugées plus « adultes », chose auparavant réservée à la littérature.

Les films de Villeneuve, s’ils ne peuvent pas vraiment être qualifiés d’implicites tant ils demeurent assez explicatifs, empruntent à 2001 ce minimalisme figuratif.

Premier Contact, par exemple, disserte longuement sur les éléments linguistiques utilisés afin de traduire un langage extraterrestre, à travers les exposés de la linguiste Louise Banks (Amy Adams) ou la voix off du physicien Ian Donnelly (Jeremy Renner). Mais cet aspect didactique est connecté à une esthétique « déprimée ». Elle représente d’une part une sensation de flottement, à travers les motifs de la brume et de l’encre dans lesquelles évoluent les aliens. D’autre part, elle invoque une impression de lourdeur grâce aux différentes matières brutes dans les décors (la pierre noire des vaisseaux spatiaux) et aux couleurs désaturées de l’image. Cela reflète en un sens la personnalité peu expressive de Louise, le film débutant sur un drame personnel, la perte de sa fille.

Dans Premier Contact, une atmosphère sombre et brumeuse.
Allociné

Ajoutons un second « effet 2001 » renvoyant aux attentats du 11 septembre 2001 sur le sol états-unien. Qualifiés de « « mère » des événements » par Jean Baudrillard, ils sont à l’origine d’un bouleversement politique, social mais aussi culturel. Fragilisés dans leur hégémonie, les États-Unis développent un imaginaire désenchanté, s’inspirant de l’avalanche d’images médiatiques témoins du désastre : films catastrophe (le Jour d’après, Roland Emmerich, 2004 ; la Guerre des mondes, Steven Spielberg, 2005 ; Cloverfield, Matt Reeves, 2008), films de survie (les Fils de l’homme, Alfonso Cuarón, 2006 ; Je suis une légende, Francis Lawrence, 2007 ; la Route, John Hillcoat, 2009).

Désenchantement du cinéma états-unien

Ce désenchantement s’exprime aussi indirectement, renvoyant moins aux images de désolation qu’à la déchéance des institutions américaines (gouvernementales, religieuses), auxquelles les citoyens ont du mal à se raccrocher suite aux attentats. Cela conduit de plus en plus à pointer l’humain du doigt comme responsable de problématiques écologiques, guerrières et sociales, y compris dans des blockbusters comme Avatar (James Cameron, 2009) – une critique relativement peu courante aux États-Unis avant les années 2000.

Christopher Nolan, d’un autre côté, met en avant la recherche d’un effet de « réalisme » scientifique, censé retranscrire une perte de naïveté : sa trilogie Batman (entre 2005 et 2012) s’approche d’une réalité concrète, loin de la fantaisie des comic books ; et Interstellar (2014), une odyssée de l’espace mettant en scène un drame familial et une humanité proche de l’extinction, communiquait sur sa supposée vraisemblance scientifique.

Le succès de ces films appuie notamment le fait que, dans la décennie 2010, il existe peu de space operas au cinéma, c’est-à-dire d’univers de science-fiction épiques partant à la conquête de l’espace et de planètes extraterrestres, pour le plaisir de jouer avec un monde futuriste alternatif. Hormis la réactivation de licences reconnues comme Star Wars, Star Trek ou Dune, on ne peut citer guère plus que la trilogie les Gardiens de la Galaxie (2014, 2017, 2023), par James Gunn, qui est aussi à l’origine du dernier Superman (2025). Étonnamment, le cinéaste se démarque dans la science-fiction à gros budget, où le recours à des couleurs saturées et à un humour potache, tout en proposant un divertissement épique, semble être un acte radical. L’imaginaire états-unien est-il enlisé dans la dystopie et le pessimisme ?

Le « solarpunk » au cinéma ?

Pourrait-on assister à un nouveau cycle dans l’histoire du cinéma de science-fiction ? Un moyen de l’anticiper est d’observer son évolution littéraire. Le cinéma de science-fiction a en effet la particularité d’être toujours en retard sur sa littérature quant aux thématiques abordées. Des auteurs, tels qu’Isaac Asimov, Robert Heinlein ou Philip K. Dick, abordaient des thèmes complexes sur la robotique ou les mondes simulés dès l’après-guerre – vingt ans avant 2001 de Kubrick, alors que le cinéma en était à ressasser la peur de l’autre, des aliens et autres animaux géants.

En matière de littérature de SF, la décennie 2010 se caractérise par l’émergence du sous-genre « solarpunk », un mouvement artistique pensé en regard des fictions dystopiques surreprésentées. Ses ambitions ont une part éthique : diversifier l’imaginaire collectif, donner à penser à une humanité durable en termes de technologies, d’écologie, de progrès social. Becky Chambers est devenue un grand nom de la science-fiction féministe (avec sa série de livres les Voyageurs, 2012 à 2021) et du solarpunk, notamment en publiant Histoires de moine et de robot (2018-2022). Celui-ci prend place dans un monde postapocalyptique où les humains ont pu recréer un environnement vivable et durable, dans une forme d’harmonie avec la nature. Ainsi, la dystopie et le solarpunk ont deux fonctions différentes, complémentaires : l’un alerte sur les dérives autoritaires quand l’autre donne à voir de quoi stimuler la découverte de potentielles solutions.

À l’heure actuelle, les rares œuvres états-uniennes grand public pouvant être assimilées au solarpunk sont surtout identifiées pour la jeunesse : par exemple, Wall-E (Andrew Stanton, 2008) ou le Robot sauvage (Chris Sanders, 2024).

Comme si ces questions mêlant écologie et progrès technique n’étaient encore qu’une sorte de rêve infantile, une affaire de bons sentiments et de naïveté. Toutefois, considérant le délai existant entre la littérature et le cinéma, il est permis d’espérer voir émerger des films solarpunk, où le sujet serait pris à bras le corps. Nous n’en sommes pas encore là : le Superman, de James Gunn, malgré la réhabilitation de l’optimisme propre au personnage, ne peut véritablement être assimilé au solarpunk. Il a toutefois le mérite de proposer un ton plus léger, une esthétique plus expressive, en rupture avec la SF actuelle. Gageons qu’il s’agit d’une forme de renouveau, d’une petite impulsion ouvrant la voie à un imaginaire alternatif du futur.

The Conversation

Samuel Saint-Pé ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La science-fiction « déprimée » du cinéma américain – https://theconversation.com/la-science-fiction-deprimee-du-cinema-americain-265087

Et si votre prochain collègue était un agent IA ?

Source: The Conversation – France in French (2) – By Stéphanie Gauttier, Professeur Associée en Systèmes d’Information, Responsable de l’équipe de recherche ‘Systèmes d’Information pour la société’ Chaire Digital Organization & Society, Grenoble École de Management (GEM)

Les agents d’IA sont capables d’effectuer différentes tâches de façon plus ou moins autonome. À mesure qu’ils sont intégrés à nos outils et à nos échanges personnels et professionnels, c’est toute la société qui doit décider ce qu’elle souhaite déléguer… et ce qu’elle préfère préserver.


En arrivant au bureau, un mail vous attend. Votre client voulait une mise à jour sur sa commande. Mais un agent IA a déjà consulté les données de livraison et envoyé un message de suivi. Vous n’avez rien eu à faire.

Ce n’est pas de la science-fiction. Les agents IA sont sur le point de transformer en profondeur nos façons de travailler. L’entreprise américaine de conseil Gartner estime que 15 % des décisions professionnelles quotidiennes seront prises par des agents IA d’ici 2028, et 33 % des entreprises utiliseront des agents IA (contre 1 % en 2024). Ces agents ne sont pas de simples assistants mais des entités capables d’agir, décider et parfois collaborer entre elles. Leur émergence pose des questions fondamentales sur le rôle des humains au travail.

Que sont les agents IA ?

Un agent IA est un logiciel (semi)-autonome qui utilise des techniques d’intelligence artificielle pour percevoir, prendre des décisions, accomplir des tâches et atteindre des objectifs prédéterminés, dans des environnements physiques ou numériques. Un agent IA peut agir pour le compte d’un utilisateur ou d’un autre système, par exemple un autre agent logiciel, en concevant son processus de travail et utilisant les outils disponibles.

Certains agents suivent une logique strictement scriptée, tandis que d’autres sont dotés d’une plus grande autonomie : ils déterminent eux-mêmes le bon moment pour agir en fonction du contexte, des objectifs et des informations disponibles. C’est cette autonomie qui caractérise l’« IA agentique ». Cette forme particulièrement autonome d’agent IA, qui ouvre de nouvelles possibilités mais soulève également des enjeux inédits en matière de conception, de contrôle et d’usage. Tous les agents IA ne forment pas une IA agentique, bien que la tendance aille en ce sens.

Par exemple, un « agent IA agentique » pourrait envoyer de lui-même un message aux clients de manière proactive si un message de retard du fournisseur est arrivé. Dans le contexte européen, une telle autonomie n’est pas interdite, mais elle relève des obligations de supervision humaine et de transparence imposées par l’AI Act (2024). Dans ce cadre, supervision ne signifie pas validation systématique de chaque action, mais capacité à tracer, contrôler et reprendre la main à tout moment.

Le marché mondial des agents IA, agentiques ou non, devrait représenter 47,1 milliards de dollars en 2030, 1,896 milliard de dollars en France en 2030.

Les agents IA s’appuient sur différentes briques d’intelligence artificielle : compréhension de requêtes, recherche d’informations, planification, action dans les systèmes, génération de texte. Parmi ces briques, les grands modèles de langage (LLM) jouent un rôle central, mais sont désormais utilisés par les agents IA de manière autonome, sans intervention humaine.

Les agents IA : vers une hyper automatisation du travail ?

Les agents IA fonctionnent en continu, sans fatigue ni pause. Ils permettent aux organisations d’étendre considérablement leur capacité d’action. À ce titre, ils incarnent la promesse d’une productivité accrue et d’une réduction des coûts.




À lire aussi :
Les robots collaboratifs, des collègues de travail comme les autres ?


Mais cette automatisation radicale réactive des craintes anciennes : déqualification, dilution des responsabilités, dépendance technologique, perte de contrôle. Ainsi, 75 % des citoyens français pensent que l’IA détruira plus d’emplois qu’elle n’en créera, et 63 % refusent aujourd’hui de se former à ces outils selon le Labo Société Numérique 2024. Aux États-Unis, seuls 23 % des adultes pensent que l’IA améliorera leur façon de travailler, contre 73 % des experts de l’IA.

La rupture est donc aussi sociale que technologique.

Les agents d’IA permettront-ils d’innover davantage ?

Automatiser les processus peut figer une manière de faire, plutôt que d’innover. Selon Eril Brynjolfsson, le véritable potentiel de l’IA réside dans son pouvoir d’augmenter les capacités humaines pour faire de nouvelles choses, pas de les remplacer.

Ainsi, plutôt que de remplacer les humains, les agents IA pourraient élargir leur champ d’action créatif, en leur suggérant des idées nouvelles, en automatisant l’exploration de variantes ou en testant rapidement des pistes qu’un humain seul n’aurait pas le temps d’examiner… par exemple pour ouvrir la voie à des avancées majeures, notamment dans le domaine de la biomédecine.

Mais pour cela, il faut qu’ils soient dignes de confiance. Le fait que 93 % des employés de bureau doutent encore de la fiabilité des résultats produits par l’IA ne relève pas seulement d’un problème d’adoption : cette méfiance renvoie à des failles concrètes des systèmes actuels, qu’il s’agisse d’erreurs, de biais, ou d’un manque de traçabilité et d’explicabilité.

Quelle responsabilité pour les agents d’IA ?

Face à des systèmes capables d’agir de manière autonome tout en faisant des erreurs, qu’il s’agisse de biais, de décisions inadaptées ou d’hallucinations, une question demeure : qui est responsable du résultat ?

Les agents, par nature, ne peuvent ressentir ni assumer la responsabilité de leurs actes. Pourtant, leur rôle peut rester invisible aux yeux des utilisateurs : les employés peuvent ignorer qu’un agent a pris une décision à leur place, ou se retrouver démunis face à un raisonnement biaisé qu’ils ne comprennent pas. Un autre risque tient à l’imprécision des consignes données par l’utilisateur, ou à la manière dont l’agent les comprend. Une interprétation erronée peut amener ce dernier à sélectionner un outil inadéquat ou à en faire un usage détourné, avec des effets indésirables. Ce type de dérive est parfois qualifié d’ « hallucination d’appel de fonction ». Enfin, une étude publiée dans Nature montre que les agents IA sont plus enclins que les humains à suivre des instructions manifestement non éthiques, ce qui demande la mise en place de garde-fous prohibitifs. Lorsque les agents travaillent en mode agentique, en toute autonomie et auto-orchestration, ces questions ont d’autant plus de poids.

Ce sont donc les organisations qui doivent prendre l’initiative de mettre en place des mécanismes de gouvernance robustes, pour assurer à la fois la conformité éthique des usages et le bien-être des salariés exposés à ces systèmes. Les actions des agents IA peuvent aussi des conséquences imprévues, dont les organisations restent responsables, ce qui impose de se doter d’un cadre de gouvernance adéquat. Cela suppose des actions concrètes : une gouvernance robuste de l’IA dans l’entreprise, un niveau suffisant de transparence, et des cadres réglementaires établis.

En pratique, il est essentiel de définir explicitement les responsabilités respectives des humains et des machines, et de former les employés — notamment à la littératie algorithmique — pour leur permettre d’agir en connaissance de cause. Il faut également permettre une collaboration contradictoire, avec un agent IA qui interroge et affine les recommandations de l’agent humain.

D’un point de vue technique, le recours à des audits indépendants et la mise en place de dispositifs d’alerte en cas de dysfonctionnement constituent des garanties indispensables pour un contrôle pertinent des agents IA.

Collaborer… sans humains ? Les limites d’un avenir de systèmes multiagents

Certaines entreprises envisagent de faire collaborer plusieurs agents IA spécialisés pour atteindre des objectifs communs : ce sont les systèmes multiagents. Par exemple, des agents IA pourraient travailler ensemble pour suivre votre réclamation client sur votre dernière commande en ligne, faire des recommandations, remonter la solution, et ajuster votre facture.

Pour y arriver, il reviendra à l’entreprise de bien orchestrer la collaboration entre les agents IA. Elle peut créer un réseau centralisé, avec un serveur qui contrôle les actions et informations des agents et qui peut prendre la main sur le système ; ou alternativement, un réseau décentralisé où les agents IA contrôlent leurs interactions entre eux. Outre les risques d’échec de coordination, l’organisation peut être confrontée à des conflits informationnels entre agents IA et des collusions, et des risques de sécurité.

Plus l’autonomie des agents est élevée, plus il devient essentiel de maintenir une forme de contrôle sur les tâches accomplies. Le règlement européen sur l’intelligence artificielle insiste sur l’importance qu’un humain dans la boucle puisse intervenir pour corriger, interrompre ou valider les actions de l’IA.

Mais le marché de l’agentique propose une autre solution. Des agents gardiens qui peuvent surveiller, guider, et intervenir dans le comportement des autres agents lorsque nécessaire. Ces agents-gardiens, ou contremaîtres, représenteraient 10 à 15 % du marché de l’IA agentique.

Faut-il alors imaginer un futur où les humains deviendraient les contrôleurs des contrôleurs ? Or, ce rôle de supervision sans implication directe dans l’action est loin d’être satisfaisant : il est souvent associé à une baisse de l’engagement et de l’épanouissement professionnel. Pire encore, plus nous déléguons les tâches formatrices à des systèmes automatisés, plus il devient difficile pour les humains d’intervenir efficacement lorsque l’IA échoue, faute d’entraînement ou de compréhension fine de la tâche.

La prochaine fois que vous engagerez une nouvelle tâche… prenez un instant pour vous demander : est-ce vous qui l’accomplirez encore d’ici peu, ou un agent IA à votre place ? Et surtout, en quoi cela changerait-il le sens que vous tirerez de votre travail ? À mesure que les agents IA s’installent dans nos outils et nos échanges, c’est toute la société qui doit décider de ce qu’elle souhaite déléguer… et de ce qu’elle préfère préserver.

The Conversation

Stéphanie Gauttier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Et si votre prochain collègue était un agent IA ? – https://theconversation.com/et-si-votre-prochain-collegue-etait-un-agent-ia-262160

La guerre cognitive, sans bombes ni balles : une zone grise juridique et stratégique

Source: The Conversation – France in French (3) – By David Gisselsson Nord, Professor, Division of Clinical Genetics, Faculty of Medicine, Lund University

La Russie a perfectionné depuis des décennies l’art du « contrôle réflexif », une forme de guerre cognitive qui consiste à façonner les perceptions d’un adversaire à son propre avantage, sans que ce dernier comprenne qu’il a été manipulé. Master1305/Shutterstock

On parle de « guerre cognitive » lorsque de fausses informations sont utilisées pour déstabiliser des populations. La Russie – entres autres – l’utilise massivement. Pourtant, cette forme d’action hostile, qui se renforce, n’est pas encadrée par le droit de la guerre. Quelle réponse envisager ?


Imaginez : vous réveillez en écoutant la nouvelle qu’une souche mortelle de grippe est apparue dans votre ville. Les autorités sanitaires minimisent la situation, mais les réseaux sociaux sont inondés d’affirmations contradictoires de la part d’« experts médicaux » débattant de son origine et de sa gravité.

Les hôpitaux sont débordés de patients présentant des symptômes grippaux, empêchant d’autres patients d’accéder aux soins, ce qui conduit à des décès. Il apparaît peu à peu qu’un adversaire étranger a orchestré cette panique en diffusant de fausses informations – comme le fait que la souche aurait un taux de mortalité très élevé. Pourtant, malgré les pertes humaines, aucune règle légale ne qualifie cette situation comme un acte de guerre.

Voici ce qu’on appelle guerre cognitive, ou « cog war » en abrégé, lorsque le domaine cognitif est utilisé sur les champs de bataille ou dans des attaques hostiles en dehors des conflits déclarés.

Un exemple classique de guerre cognitive est appelé « contrôle réflexif » – un art que la Russie a perfectionné depuis des décennies. Il s’agit de façonner les perceptions d’un adversaire à son propre avantage sans qu’il ne se rende compte qu’il a été manipulé.

Dans le cadre du conflit en Ukraine, cela inclut des récits sur des revendications historiques de la Russie sur des territoires ukrainiens ou la représentation de l’Occident comme moralement corrompu.

La guerre cognitive vise à prendre l’avantage sur un adversaire en ciblant les attitudes et comportements au niveau individuel, collectif ou de toute la population. Elle est conçue pour modifier les perceptions de la réalité, faisant de « la manipulation de la cognition humaine » un domaine crucial de la guerre. C’est donc une arme dans une bataille géopolitique qui se joue par interactions entre les esprits plutôt qu’entre les corps.

Parce qu’elle peut être menée sans les dommages physiques régulés par les lois de la guerre actuellement en vigueur, la guerre cognitive évolue dans un vide juridique. Cela ne signifie pas qu’elle ne peut pas conduire à de la violence sur la base de fausses informations, ou provoquer des blessures et des décès par effets secondaires.

Bataille des esprits, corps blessés

L’idée que la guerre est avant tout une confrontation mentale, où la manipulation cognitive est centrale, remonte au stratège Sun Tzu (Ve siècle avant notre ère), auteur de l’Art de la guerre. Aujourd’hui, le domaine numérique est l’arène principale de ce type d’opérations.

La révolution numérique permet un contenu de plus en plus personnalisé, exploitant les biais repérés à travers notre empreinte numérique : c’est ce qu’on appelle le « micro-ciblage ». L’intelligence artificielle peut même nous proposer du contenu ciblé sans prendre une seule photo ou sans enregistrer une vidéo. Il suffit d’une requête bien formulée par une IA pour soutenir un récit et des objectifs définis par des acteurs malveillants, tout en trompant discrètement le public.

Ces campagnes de désinformation s’étendent de plus en plus au domaine physique du corps humain. Dans la guerre en Ukraine, on observe encore des récits de guerre cognitive, comme des accusations selon lesquelles les autorités ukrainiennes auraient dissimulé ou provoqué des épidémies de choléra. D’autres allégations sur des laboratoires d’armes biologiques soutenus par les États-Unis ont également été utilisées comme justifications fallacieuses pour l’invasion à grande échelle par la Russie.

Pendant la pandémie de Covid-19, de fausses informations ont causé des décès, certaines personnes refusant les mesures de protection ou ayant recours à des remèdes dangereux pour se soigner. Certains récits liés à la pandémie s’inscrivaient dans une lutte géopolitique. Tandis que les États-Unis menaient des opérations d’information secrètes, des acteurs étatiques russes et chinois coordonnaient des campagnes utilisant des avatars générés par IA et du micro-ciblage pour influencer l’opinion au niveau des communautés et des individus.

La capacité de micro-ciblage pourrait évoluer rapidement grâce à des méthodes de couplage cerveau-machine permettront de collecter des données sur les schémas cognitifs. Ces interfaces entre les machines et le cerveau humain vont de simples électrodes posées sur le cuir chevelu à des casques de réalité virtuelle avec stimulation sensorielle immersive.

Le programme Next-Generation Nonsurgical Neurotechnology (dit, N3) de l’agence chargée de la recherche et du développement de nouvelles technologies à usage militaire aux États-Unis (la DARPA) illustre la façon dont ces dispositifs pourraient « lire» et « écrire » en plusieurs endroits du cerveau simultanément. Cependant, ces outils pourraient également être piratés ou alimentés par des données corrompues dans le cadre de futures stratégies de manipulation de l’information ou de perturbation psychologique. Relier directement le cerveau au monde numérique de cette manière effacera la frontière entre le corps humain et le domaine de l’information de manière inédite.

Un vide juridique

Les lois traditionnelles de la guerre considèrent l’usage de la force physique – bombes et balles – comme le principal sujet de préoccupation, laissant la guerre cognitive dans une zone grise. La manipulation psychologique est-elle une « attaque armée » justifiant la légitime défense au titre de la Charte des Nations unies ? À ce jour, il n’existe aucune réponse claire. Un acteur étatique pourrait potentiellement utiliser de la désinformation sanitaire pour provoquer des pertes massives dans un autre pays sans déclarer la guerre.

Des lacunes similaires existent même lorsque la guerre traditionnelle est déjà en cours. Dans ce contexte, la guerre cognitive brouille la ligne entre la tromperie militaire autorisée (ruses de guerre) et la perfidie interdite.

Imaginez un programme de vaccination humanitaire collectant secrètement de l’ADN, utilisé ensuite par des forces militaires pour cartographier des réseaux d’insurgés fondés sur des clans. Cette exploitation de données médicales constituerait une perfidie au regard du droit humanitaire — mais seulement si l’on considère que de telles tactiques comme parties intégrantes de la guerre.

Vers une réglementation

Que faire pour nous protéger de cette nouvelle réalité ? Tout d’abord, nous devons repenser la notion de « menace » dans les conflits modernes. La Charte des Nations unies interdit déjà les « menaces de recours à la force » contre d’autres États, mais cela nous enferme dans une conception physique de la menace.

Quand une puissance étrangère inonde vos médias de fausses alertes sanitaires pour semer la panique, cela ne menace-t-il pas votre pays tout autant qu’un blocus militaire ?

Cette problématique a été reconnue dès 2017 par les groupes d’experts à l’origine du Manuel de Tallinn sur la cyberguerre (Règle 70), mais nos normes juridiques n’ont pas suivi.

Ensuite, il faut reconnaître que le préjudice psychologique est un vrai préjudice. Lorsqu’on pense aux blessures de guerre, on imagine des blessures physiques. Pourtant, le stress post-traumatique est reconnu depuis longtemps comme une blessure de guerre légitime — alors pourquoi pas les effets mentaux des opérations cognitives ciblées ?

Finalement, les lois traditionnelles de la guerre pourraient ne pas suffire — il faudrait se tourner vers les règles relatives aux droits humains pour trouver des solutions. Ceux-ci incluent déjà des protections de la liberté de pensée et de la liberté d’opinion mais aussi des interdictions contre la propagande de guerre. Ces dernières pourraient servir de protection des civils contre les attaques cognitives. Les États ont l’obligation de faire respecter ces droits à l’intérieur comme à l’extérieur de leurs frontières.

L’utilisation de tactiques et de technologies de plus en plus sophistiquées pour manipuler la pensée et les émotions constitue l’une des menaces actuelles les plus insidieuses contre la liberté humaine. Ce n’est qu’en adaptant nos cadres juridiques à ce défi que nous pourrons renforcer la résilience de nos sociétés en permettant aux générations futures de faire face aux crises et conflits de demain.

The Conversation

David Gisselsson Nord bénéficie d’un financement du Conseil suédois de la recherche, de la Société suédoise du cancer et de la Fondation suédoise contre le cancer chez les enfants. Il a également reçu une bourse de voyage du ministère américain de la Défense.

Alberto Rinaldi a reçu un financement de la chaire invitée Raoul Wallenberg en droits de l’homme et droit humanitaire et du Conseil suédois de la recherche.

ref. La guerre cognitive, sans bombes ni balles : une zone grise juridique et stratégique – https://theconversation.com/la-guerre-cognitive-sans-bombes-ni-balles-une-zone-grise-juridique-et-strategique-261741

University ranking systems are being rejected. African institutions should take note

Source: The Conversation – Africa – By Sioux McKenna, Professor of Higher Education, Rhodes University, South Africa, Rhodes University

The Sorbonne University, founded in Paris in 1253 and known globally as a symbol of education, science and culture, has just announced that, starting in 2026, it will stop submitting data to Times Higher Education (THE) rankings. It is joining a growing movement of universities questioning the value and methodology of these controversial league tables.

Rankings companies add together various indices that purport to measure quality. The indices include research outputs, the results of reputation surveys, the amount of money they receive in research grants and donations, and how many Nobel prize winners they have ever employed.

Nathalie Drach-Temam, president of the Sorbonne, stated that

the data used to assess each university’s performance is not open or transparent

and

the reproducibility of the results produced cannot be guaranteed.

This echoes wider concerns about the lack of scientific rigour of ranking systems that claim to measure complex institutional performance through simplified metrics.

The problem is that the general public believe that the rankings offer an indication of quality. As a result rankings have enormous influence over the market. This includes the choice of where to study and where to invest funding.

The university’s decision aligns with its commitment to the Agreement on Reforming Research Assessment, an agreement signed by over 700 research organisations, funders and professional societies, and the Barcelona Declaration, signed by about 200 universities and research institutes. Both advocate for open science practices to make scientific research, data, methods, and educational resources transparent, accessible and reusable by everyone without barriers. And both recommend “avoiding the use of rankings of research organisations in research assessment”.

The Sorbonne joins a growing list of high-profile institutions abandoning rankings. Columbia University, Utrecht University and several Indian institutes have opted out of major ranking systems. In the US, 17 medical and law schools, including Yale and Harvard, have withdrawn from discipline-specific rankings.

There are five major rankings companies and at least 20 smaller ones. On top of these are a similar number of discipline specific and regional rankings. Together they make up a billion dollar industry. Yet the rankings are accessible without charge.

The rankings industry has increasingly targeted African countries. It sees the continent as a new market at a time when it is losing traction among high profile institutions in the global north.

There has been a rapid increase in snazzy events run by rankings organisations on the continent. These events are very expensive and often quite luxurious – attended by vice-chancellors, academics, consultants and others.

As an academic involved in higher education teaching, I believe that chasing the rankings can harm Africa’s fragile higher education system. There are two main reasons for this.

Firstly, the rankings metrics largely focus on research output, rather than on the potential for that research to address local problems. Secondly, the rankings fail to consider higher education’s role in nurturing critical citizens, or contributing to the public good.

The Sorbonne’s decision reflects a growing body of opinion that the rankings industry is unscientific and a poor means of measuring quality.

Nevertheless, many vice-chancellors are not willing to risk the cost of withdrawing. Rankings might do a poor job of indicating quality, in all its nuanced forms. Nevertheless, they are very good at shaping public opinion. And even if a university chooses to stay out of the ranking by refusing to hand over its data, the industry continues to include it, based only on limited publicly available data.

The ranking industry

Rankings themselves are available for free. The ranking industry derives most of its revenue from reselling the data that universities provide. Universities submit detailed institutional data to ranking companies without charge. That information is then repackaged and sold back to institutions, governments and corporations.

This data includes institutional income. It often also includes contact details of staff and students. These are used for “reputation surveys”. In the case of QS University Rankings, “reputation” makes up more than 40% of the rankings.

This business model has created what can be described as a sophisticated data harvesting operation disguised as academic assessment.

Mounting criticism

Academic research has extensively documented the problems with ranking methodologies. These include:

  • the use of proxy metrics that poorly represent institutional quality. For example, while many university rankings do not include a measurement of teaching quality at all, those that do, use measures such as income, staff to student ratio, and international academic reputation.

  • composite indexing that combines unrelated measurements. The metrics that are collected are simply added together, even though they have no bearing on each other. Our students are repeatedly warned of the dangers of using composite measurement in research, and yet this is at the heart of the rankings industry.

  • subjective weighting systems that can dramatically alter results based on arbitrary decisions. If the system decides to weight reputation at 20% and then make university income worth 10%, we have one order of institutions. Switch these weightings to make the former 10% and the latter 20% and the list rearranges itself. And yet, the quality of the institutions is unchanged.

Rankings tend to favour research-intensive universities while ignoring teaching quality, community engagement and local relevance.

Most ranking systems emphasise English-language publications. This reinforces existing academic hierarchies rather than providing meaningful assessment of quality.

Where new rankings are being introduced, such as the Sub-Saharan Africa rankings, or the Emerging Economies rankings, or even the Impact rankings, they sadly still have the problem of proxy measures, and composite and subjective weightings.

In addition, many of the ranking companies refuse to reveal precise methodological detail. This makes it impossible to verify their claims or understand on what basis institutions are actually assessed.

Researchers argue that rankings have thrived because they align with the idea of higher education as a marketplace where institutions compete for market share. This has led universities to prioritise metrics that improve their ranking positions rather than activities that best serve their students and communities.

The emphasis on quantifiable outputs has created what scholars call “coercive isomorphism” – pressure for all universities to adopt similar structures and priorities regardless of their specific missions or local contexts.

Research shows that striving for a spot in the rankings limelight affects resource allocation, strategic planning and even which students apply to institutions. Some universities have shifted focus from teaching quality to research output specifically to improve rankings. Others have engaged in “gaming” – manipulating data to boost their positions.

Looking forward

Participation in methodologically flawed ranking systems presents a contradiction: universities built on principles of scientific research continue to support an industry whose methods would fail basic peer review standards.

For universities still participating, Sorbonne’s move raises an uncomfortable question: what are their institutional priorities and commitments to scientific integrity?

The Conversation

Sioux McKenna does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. University ranking systems are being rejected. African institutions should take note – https://theconversation.com/university-ranking-systems-are-being-rejected-african-institutions-should-take-note-265914

Tanzania’s ruling party has crushed the opposition – the elections are a mere formality

Source: The Conversation – Africa (2) – By Nicodemus Minde, Researcher, United States International University

Tanzania has conducted regular polls since the first multiparty elections in 1995. But they have often failed to meet democratic standards. The opposition has been persistently excluded and restricted, and media freedoms and civil rights have been suppressed. This pattern has come to be identified as electoral authoritarianism.

Tanzania’s ruling party, Chama Cha Mapinduzi (CCM), will seek to extend its dominance on 29 October 2025. It has been in power since independence in 1961, making it one of Africa’s longest-serving ruling parties.

I have studied Tanzania’s political party dynamics for a decade and in my view CCM’s candidate, Samia Suluhu Hassan, is destined for a landslide victory after the disqualification of two major opposition parties. Samia became president following the death in office of John Magufuli in 2021.

Chama Cha Demokrasia na Maendeleo (Chadema) was disqualified for refusing to sign the election code of conduct. The party’s chair, Tundu Lissu, faces treason charges for calling for electoral reforms. The presidential candidate of the second-largest opposition party, ACT Wazalendo, has also been disqualified following a petition filed by the country’s registrar of political parties.

This makes the election significantly different to the last poll, held in 2020. That year, opposition parties participated, despite electoral flaws. This time, the ruling party goes to the polls virtually unchallenged. It will be looking for a seventh consecutive election victory.

The campaign is now dominated by CCM at all levels. There are indications that voter turnout will be low, with little public enthusiasm, especially knowing that a CCM victory is certain. Since 2010 the voter turnout has been shrinking. The elections in 2010 and 2020 experienced notably low voter turnout, with rates of 42.7% and 50.7%, respectively.

Tanzania continues to experience a decline in democracy, accompanied by heightened political repression and restrictions on political rights and civil liberties. The country’s status in the Freedom House democracy index dropped from the Partly Free category in 2020 to the Not Free category going into 2025.

Polling

Tanzanian general elections include three main categories: presidential, parliamentary, and councillor seats. They take place across the mainland and Zanzibar, Tanzania’s semi-autonomous state.

The 2025 elections feature 272 constituencies, 222 of which are mainland and 50 of which are in Zanzibar. Eight new constituencies were created in the mainland earlier this year.

The Independent Electoral Commission announced that a total of 37.7 million people had registered as voters in the 2025 elections, compared to 29.8 million at the last election: a 26.55% increase. According to the commission this reflects a rise in population but critics allege a scheme to manipulate the vote during the elections.

The electoral commission has cleared 16 presidential candidates. Samia, a native of Zanzibar, is running for her first full term. Her running mate, Emmanuel Nchimbi, has deep roots within CCM.

Chadema has called for electoral reforms, a stance which has brought charges of treason and incitement against Lissu.

ACT-Wazalendo’s candidate Luhaga Mpina was barred from running after the attorney general said his party had not followed nomination procedures.

With Chadema and ACT-Wazalendo out of the presidential race in mainland Tanzania, Chama Cha Ukombozi wa Umma (Chaumma), a fringe party that has benefited from the defections of some Chadema members, has emerged as the only challenger.

Its presidential candidate and running mate are Salum Mwalimu and Devotha Minja, who defected from Chadema earlier this year.

Chaumma’s apparent campaign resources have led some to conclude that it is surreptitiously backed by the ruling party. Chaumma and the 15 other fringe parties run the risk of legitimising an already flawed electoral process.

In Zanzibar, incumbent Hussein Mwinyi of CCM is seeking another term. He faces competition from Othman Masoud of ACT-Wazalendo. This will be the first general election in Zanzibar without opposition icon Seif Shariff Hamad, who died in 2021. He was a perennial presidential candidate in Zanzibar, always claiming that he had won but never becoming president.

In 2010 a government of national unity was formed in which he became the first vice president in a gesture aimed at reconciliation.

Campaign issues

The CCM is promising to deliver a strengthened economy, infrastructure development and improved healthcare. It has also pledged a new constitution. This last promise is part of the rhetoric previously peddled during political campaigns.

When Samia took office in 2021, she initiated reforms that promised improvements in governance. These are long forgotten.

Chadema’s “No Reforms, No Elections” position continues to shape public discourse. The call has focused minds on the governance and human rights issues facing Tanzania. These include attacks on media freedom, the targeting of government critics, and gross violations of human rights and abductions.

It has had an effect too on international opinion of Tanzania. Several international organisations including the African Commission on Human Rights and the European Parliament have voiced their concern about the deteriorating human rights situation in Tanzania.

ACT-Wazalendo has resolved to pursue reforms by participating in the election, with the rallying call of Linda Kura (protect the vote).

What’s different (and what’s not) this time

There is a new electoral framework for the 2025 election.

Three new electoral laws were passed. These are the National Electoral Commission Act (2023), the Presidential, Parliamentary, and Local Government Elections Bill (2023), and the Political Parties Affairs Laws (Amendment) Bill (2023). These changes led to the establishment of a new electoral body, the Independent National Electoral Commission, with the promise of reforming the electoral system.

A multi-stakeholder engagement recommended changes to enhance the electoral body’s independence. On this basis, a government task force recommended the creation of an “independent” committee, chaired by the chief justice, to vet applications of electoral commissioners.

Despite these changes, the executive branch still maintains significant influence over the electoral structure and decision making. The president still has the powers to appoint the chair, vice chair and commissioners of the electoral body.

With the opposition pushed aside and a controlled electoral process under way, CCM’s victory is all but certain. The key question now is the future of Tanzania’s democracy.

The Conversation

Nicodemus Minde is affiliated with the Institute for Security Studies.

ref. Tanzania’s ruling party has crushed the opposition – the elections are a mere formality – https://theconversation.com/tanzanias-ruling-party-has-crushed-the-opposition-the-elections-are-a-mere-formality-265771

Museum in a box: on the road with South Africa’s heritage

Source: The Conversation – Africa – By Tim Forssman, Senior Lecturer, University of Mpumalanga

Museums are usually in cities. So, where transport is poor and it’s expensive to travel, many people can’t visit them. We decided to experiment with a way of getting around the problem: we built a travelling museum.

I’m an archaeologist working in the Limpopo Valley, in the north of South Africa, studying hunter-gatherers and the rise of precolonial kingdoms. I am interested in how crafted goods and local wealth shaped social relations and became the pillars upon which state society was built.

Together with Justine van Heerden, I designed a mobile museum to share our research. It’s a sturdy, portable cabinet with drawers that each tell a chapter of regional history. There are five layers, with the bottom ones stretching back over 250,000 years, and the top only a few hundred years. Inside the drawers are objects from teaching collections or which have been handed to us over the years, like pieces of pottery or stone tools.

We travel with our museum to the field, to conferences and to meetings with land-owners, and we have written a paper to share with our community what we’ve learnt about community engagement programmes, and why this initiative works.

Justine surveyed and interviewed people who saw our museum for her master’s research. The main lessons we learnt are that:

  • people learn best from touching something, not just listening to a talk

  • visits with the museum should be short and frequent

  • people respond to seeing something that’s locally relevant

  • “experts” can learn from community engagement.

To make it work, a travelling museum needs maintenance. Objects must be durable or replaceable. Facilitators need training. And the initiative needs funding.

But taking the museum to rural schools and communities matters. Giving people a chance to engage with their past signals that the past is theirs and that expertise grows where they are.

What it is (and why touch matters)

The oldest display in our mobile museum cabinet is from Earlier and Middle Stone Age tool makers. Younger items include a Later Stone Age or hunter-gatherer display, and the top drawer includes a display on our current research. Inside each are artefacts, replicas and teaching aids designed to be handled. No glass. No alarms. No “do not touch” signs.

We emphasised touching because learning changes when your hands are involved. Feeling the edge of a stone tool or the weight of a ceramic sherd (a piece of broken pottery) transforms an abstract idea (“people lived here a thousand years ago”) into something immediate (“someone shaped this with their hands”).

For people who are learning about concepts in the museum for the first time, that moment of contact is powerful. They are learning from their fingertips.

Who we work with

We use the travelling museum in three main settings:

  • Schools and community centres in our research area of northern South Africa, where many artefacts we study originate. Teachers tell us it’s far easier (and cheaper) than bussing students to a city museum. But it is not confined to the area we work in and we’ve brought the museum to South Africa’s capital city, Pretoria, and Skukuza in the east of the country to present heritage to interested groups, including students from abroad.

  • Field visits and public talks, where elders, park staff and local guides share knowledge that seldom makes it into display labels. On a tour to the northern Kruger National Park, when we visited local archaeological sites such as Thulamela with the South African Archaeology Society, the museum accompanied us and we presented it to the group as an evening lecture.

  • Importantly, the museum visits university classrooms regularly. Here, it acts as a bridge between lectures and excavations; students practise describing, recording and interpreting real materials before heading into the field. Showing up with something useful – something that makes learning easier and more enjoyable – goes a long way.

Learning from a travelling museum

A mobile display doesn’t replace a traditional museum, which stores, conserves, researches and presents a variety of items. But it does what big buildings can’t: reach people where they are, on their terms, at short notice, without a ticket price.

We’ve learnt that even 30 minutes of guided handling beats an hour of talking. Holding an artefact, which might be hundreds of years old, can be a profound experience.

We plan multiple small sessions instead of one large event. This allows us to regularly engage, revisit groups and present our museum in various ways. We’ve also produced posters, videos and slideshows about the exhibit.

Local relevance is key. People light up when objects and stories come from places they know, where they live, or where they’ve travelled to.

There is a risk with our approach. Letting the public touch objects means wear and tear. We manage that with robust replicas and careful choice of what we present. We believe that respectful risk is necessary because of the benefits it leads to.




Read more:
What it’s like curating ancient fossils: a palaeontologist shares her story


A travelling museum takes upkeep, money, planning and partners. Incorporating it into our research programme overcomes many of these challenges and tells the story of what we’re doing.

Why this matters beyond archaeology

Mobile museums are about equity as much as education. If cultural heritage remains behind glass in places that may be difficult to visit, it quietly reinforces the idea that knowledge lives elsewhere and belongs to someone else.




Read more:
Looting of the Sudan National Museum – more is at stake than priceless ancient treasures


It is also not only about facts, but about exchange and connections. It’s about ownership and voice. When people handle the finds that came from their region, they ask different questions and offer different insights. Those conversations often redirect our research questions too. We’ve often been struck by people’s desire for a deep connection with the past.

Heritage is a public good, and it surrounds us in South Africa – it’s in the hills, caves, under earth and in our backyards. If it clusters around privilege, it narrows the stories a society can tell about itself.

The Conversation

Tim Forssman receives funding from the National Research Foundation.

ref. Museum in a box: on the road with South Africa’s heritage – https://theconversation.com/museum-in-a-box-on-the-road-with-south-africas-heritage-266108

« Kuei, je te salue » : il n’y a pas de réconciliation possible sans récit partagé

Source: The Conversation – in French – By Christophe Premat, Professor, Canadian and Cultural Studies, Stockholm University

Dans un contexte où les fractures mémorielles occupent une place grandissante dans nos sociétés, certaines œuvres littéraires se présentent comme des passerelles inattendues. C’est le cas de Kuei, je te salue publié en 2016, fruit d’un dialogue épistolaire entre l’écrivain franco-américain Deni Ellis Béchard et la poète innue Natasha Kanapé Fontaine.

Page couverture de l’ouvrage « Kuei, je te salue ».
(Éditions Écosociété), CC BY

Plus qu’un livre, c’est un dispositif d’écoute et de réconciliation, qui nous invite à repenser le rôle de la littérature : non pas seulement raconter, mais créer les conditions d’une rencontre entre peuples autochtones et colonisateurs.

En tant que spécialiste des études culturelles francophones et des théories postcoloniales, je m’intéresse plus précisément au cas des littératures autochtones produites en français et notamment celles qui abordent les fractures mémorielles.

Cet article fait partie de notre série Des livres qui comptent, dans laquelle des experts de différents domaines abordent ou décortiquent les ouvrages qu’ils jugent pertinents. Ces livres sont ceux, parmi tous, qu’ils retiennent lorsque vient le temps de comprendre les transformations et les bouleversements de notre époque.


Une correspondance comme dispositif de réparation

Le livre prend la forme de vingt-six lettres échangées entre les deux auteurs. Deni Ellis Béchard, dont le père est Gaspésien et la mère, Américaine, interroge sa place dans une histoire marquée par la colonisation, tandis que Natasha Kanapé Fontaine porte la mémoire et l’expérience innue. Le format épistolaire, qui alterne confidences et réflexions, ouvre un espace intime pour aborder des sujets souvent évités dans l’espace public : racisme systémique, violences coloniales, pensionnats, effacement des cultures autochtones.

Ce choix n’est pas anodin. L’échange de lettres crée une relation de proximité avec le lecteur, invité à devenir témoin d’un dialogue qui l’inclut implicitement. Le livre se présente comme une conversation élargie : de l’écrivain non autochtone vers l’autrice innue, mais aussi de ces deux voix vers le lecteur québécois, canadien, et plus largement francophone.




À lire aussi :
La littérature autochtone francophone fait désormais partie du paysage culturel, au Québec et dans le monde


Un contrat d’apprentissage et d’empathie

Dès les premières pages, le livre trace un contrat pédagogique avec son lecteur. Natasha Kanapé Fontaine introduit des mots innus, des références culturelles, des fragments de mémoire souvent ignorés du grand public. Ces incursions ne sont pas des ornements exotiques : elles rappellent que la langue et la culture innues ont été marginalisées, et qu’il faut leur faire place dans le récit collectif.

La poète innue Natasha Kanape Fontaine introduit quelques mots d’Innus dans le livre « Kuei, je te salue ».
(Julie Artacho), CC BY-SA

Ce geste est profondément politique : apprendre quelques mots, c’est déjà s’ouvrir à l’altérité. Comme le montrent mes travaux en analyse du discours, le livre fonctionne ainsi comme un apprentissage de l’empathie. Le lecteur n’est pas sommé de se sentir coupable, mais invité à partager une mémoire occultée, à reconnaître une présence trop longtemps niée.




À lire aussi :
On ne naît pas blanc, on le devient : explorer « La pensée blanche » avec Lilian Thuram


Une mémoire qui répare l’oubli

Contrairement à des discours qui se limitent à dénoncer ou à accuser, Kuei, je te salue s’inscrit dans une dynamique de réparation. Le cœur du dialogue n’est pas la culpabilisation, mais la réincorporation d’un oubli. L’histoire coloniale du Québec et du Canada est marquée par des silences, des effacements : pensionnats, dépossession des territoires, assimilation forcée. Le livre rappelle ces réalités sans violence rhétorique, mais en insistant sur leur persistance dans les vies contemporaines.

Dans le livre « Kuei, je te salue », l’écrivain Deni Ellis Béchard interroge sa place dans une histoire marquée par la colonisation.
(Julie Artacho), CC BY

Cette approche non violente ne cherche pas à édulcorer le passé, mais à créer les conditions d’une mémoire partagée. La littérature devient ici un médium pour rendre visible ce qui a été effacé, tout en ménageant un espace d’écoute et de reconnaissance.

Une communication non violente au service du dialogue

Le ton de l’ouvrage doit beaucoup aux principes de la communication non violente. On y retrouve le souci de nommer les blessures sans accuser directement, de formuler des demandes claires, de chercher une compréhension mutuelle. Cela permet de désamorcer les réflexes défensifs qui accompagnent souvent les débats sur la mémoire coloniale.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


En choisissant la voie de l’empathie plutôt que celle de la confrontation, les deux auteurs ouvrent une possibilité rare : celle de parler d’un passé douloureux sans que le dialogue ne se rompe. Ce style contribue à rendre le livre accessible à un public qui pourrait autrement se sentir tenu à distance par des discours trop accusateurs ou trop théoriques.

Un levier civique et éducatif

L’importance de Kuei, je te salue dépasse le champ littéraire. L’ouvrage est utilisé dans certaines écoles et universités comme support pédagogique pour aborder la réconciliation entre Autochtones et non-Autochtones. Il offre un modèle de dialogue qui peut inspirer d’autres contextes marqués par des fractures mémorielles ou culturelles. La fin de l’ouvrage propose même des documents pédagogiques à destination des écoles avec des programmes d’activité.

Le message est clair : il n’y a pas de réconciliation possible sans récit partagé. La littérature, par sa capacité à susciter l’émotion et à créer des personnages incarnés, a un rôle essentiel à jouer dans ce processus. Elle ne remplace pas les politiques publiques ni les réparations concrètes, mais elle prépare les esprits et les cœurs à les accueillir, elle encourage à apprendre l’histoire dans une perspective interculturelle.

De l’empathie à la responsabilité

Kuei, je te salue demeure une œuvre singulière et nécessaire. Elle illustre comment la littérature peut être au service de l’empathie, non pas en dictant une morale, mais en créant les conditions d’une écoute mutuelle.

Elle propose un chemin : de l’oubli à la mémoire, de la mémoire à l’empathie, de l’empathie à la responsabilité. En revanche, cette œuvre refuse toute tentative de récupération de cette réconciliation pour donner bonne conscience aux Blancs. L’idée est bien d’amener le lecteur vers une exigence de remise en question pour pouvoir être en mesure de percevoir les récits oubliés de l’Histoire.

La Conversation Canada

Christophe Premat est directeur du Centre d’études canadiennes de l’Université de Stockhom depuis 2017. Il a récemment publié Premat, C. (2025), “Le monde qui se dérobe dans Nanimissuat Île-tonnerre de Natasha Kanapé Fontaine”, Cahiers ERTA, (42), 55–75. https://doi.org/10.26881/erta.2025.42.03

ref. « Kuei, je te salue » : il n’y a pas de réconciliation possible sans récit partagé – https://theconversation.com/kuei-je-te-salue-il-ny-a-pas-de-reconciliation-possible-sans-recit-partage-266300

Reconciliation includes recognizing Residential Schools are not the only colonial atrocity

Source: The Conversation – Canada – By Wade Paul, Phd Candidate, Concordia University

Sept. 30 is upon us once again, the fourth year this day will be observed as a time to reflect on the history of colonialism, and its ongoing impacts, on the Indigenous Peoples and communities in what is now called Canada.

This day first became recognized as Orange Shirt Day by grassroots organizers in 2013, the day Canadians honour the Survivors of Residential Schools and acknowledge the intergenerational impacts of these institutions on Indigenous Peoples.

Inspired by Survivor Phyllis Webstad’s testimony shared with the Truth and Reconciliation Commission (TRC) — where she described how the orange shirt her grandmother had given her was taken away on her first day of Residential School — the orange shirt emerged as an enduring symbol of Indigenous resilience.

While we continue to wear orange shirts to honour Survivors and acknowledge that not every child returned home, the federal government in 2021 officially declared Sept. 30 a statutory holiday and called it the National Day for Truth and Reconciliation (NDTR).

Truth-telling

In this country, reconciliation is an ongoing process of repairing and rebuilding the relationship between Indigenous Peoples and settlers, and the relationship between Indigenous Peoples and the Canadian government.

It has often taken the form of truth-telling probes such as the TRC, which ran from 2008 to 2015, collecting testimony from Survivors and their communities and examining the systemic harms caused.

Understanding the Residential Schools system has been an important starting point. That said, it was only one of the many destructive and assimilationist tactics imposed upon Indigenous Peoples.

This year, in addition to learning more about Residential Schools, I invite you to learn about some of the many other culturally devastating practices: the Potlatch Ban, the Sixties Scoop, the Millennium Scoop, the forced and coerced sterilization of Indigenous women and the contemporary concerns Indigenous Nations and groups face today as a result of this history.

No songs, dances or large gatherings

While Residential Schools were designed to cut off Indigenous children from their languages, families and teachings, the Potlatch Ban sought to suppress associations and criminalize cultural and spiritual practices among adults.

The Potlatch Ban, instituted in 1885 through an amendment to the Indian Act, prohibited Indigenous ceremonies, including songs, dances and gatherings that were deemed to be too large or threatening to colonial authorities.

This effectively made potlatches (ceremonial assemblies practised by Indigenous peoples of the Pacific Northwest Coast to mark important events such as births, marriages or funerals), sun dances (sacred ceremonies of spiritual renewal that are held annually by many First Nations peoples from the Prairies) and powwows (gatherings featuring music, dancing, eating and the trading or selling of goods) illegal until the ban was lifted in 1951.

These ceremonies, however, continued underground, with one of the most infamous instances being Chief Dan Cranmer’s potlatch on Christmas Day in 1921. Although the potlatch was held in secret, it was attended by at least 300 guests and was ultimately raided by Indian agents, resulting in 45 people being arrested and charged.

Officials confiscated more than 750 cultural items used in the potlach, the bulk of which were sent to the Royal Ontario Museum (ROM) in Toronto, the Museum of the American Indian in New York and the then‐National Museum in Ottawa, now called the Canadian Museum of History.

The museums held these items in their collection from 1922 until the ROM began the process of repatriation by returning its portion of the collection in 1988.

The foster care crisis

Many Indigenous children were forcibly taken from their families and placed in non-Indigenous homes by child welfare authorities in a practice known as the Sixties Scoop, which went on from the 1960s to the 1980s.

It is estimated that more than 20,000 Indigenous children were separated from their families and funnelled into the Canadian child welfare system for assimilationist purposes.

Families were dismantled as siblings were dispersed to new homes, sometimes even in different countries. This succeeded in disconnecting Indigenous children from their roots and families. Many of these adopted children discovered their true heritage only later in life as adults.

Since 2021, Survivors of the Sixties Scoop have been calling for a separate national inquiry to trace the histories of erasure and loss experienced by the displaced children.

Even more alarming is that the forced removal of Indigenous children from their families continues today, a reality now often referred to as the Millennium Scoop.

According to Statistics Canada, although Indigenous children account for only 7.7 per cent of Canada’s child population, they comprise more than 53 per cent of children in foster care.

The sterilization of Indigenous women

Indigenous women have borne a disproportionate amount of this colonial violence. This reality was acknowledged and further investigated through the National Inquiry into Missing and Murdered Indigenous Women and Girls (MMIWG).

One harrowing example is the forced or coerced sterilization of Indigenous women. In her 2015 book An Act of Genocide: Colonialism and the Sterilization of Aboriginal Women, women’s and gender studies scholar Karen Stote detailed how more than 500 Indigenous women were sterilized in federal hospitals between 1971 and 1974.




Read more:
Forced sterilizations of Indigenous women: One more act of genocide


In 2021, a report from the Canadian Standing Senate Committee on Human Rights concluded that the prevalence of the practice is both “under-reported and under-estimated” and continues to occur today. In 2023, Sen. Yvonne Boyer stated that although it’s hard to determine precisely, at least 12,000 Indigenous women were affected between 1971 and 2018 — some as young as 17.

Modern-day remnants of colonialism

It’s important to remember that Indigenous Peoples and their concerns are not simply a part of Canada’s history. The issues facing them have evolved, as have their needs.

The Aamjiwnaang First Nation, for example, an Anishinaabe community situated near Sarnia, Ont. along the St. Clair River in a patch of land commonly known as “Chemical Valley,” has a highly localized challenge. The region has been home to 40 per cent of the country’s petrochemical companies, including Shell Canada, Bayer, Dow Chemical and DuPont.

The sustained presence of these businesses has resulted in significantly elevated levels of chemical pollution. Air monitoring data show that residents of Aamjiwnaang are exposed to 30 times more benzene than people living in Toronto or Ottawa.

The region, including Aamjiwnaang and the city of Sarnia, records more hospitalizations for respiratory illnesses than nearby Windsor and London. Similarly, a Western University study found that 25 per cent of children in Sarnia have been diagnosed with asthma, compared to only 17 per cent in London.

Additionally, other troubling trends have been observed in Aamjiwnaang regarding gender distribution among newborns, where males made up about 35 per cent of children instead of the expected 51 per cent.

Another ongoing and pervasive challenge facing a number of Indigenous communities is the lack of access to clean drinking water.

Though the right to clean drinking water was at the core of then-Liberal candidate Justin Trudeau’s 2015 campaign promise to end boil-water advisories within five years, a decade later there remain 39 long-term and 38 short-term advisories affecting First Nations across the country.

Reconciliation is an ongoing process

As the Canadian settler state and Indigenous Peoples continue this process of truth-telling and reconciliation, it’s important to remember that Residential Schools were one part of a much larger colonial strategy to assimilate Indigenous Peoples and erase Indigenous cultures, languages, traditions, practices and governance systems.

And as you observe this National Day for Truth and Reconciliation, consider learning even more about the many other tactics.

This way, we can acknowledge past harms, work to address current realities and look to foster meaningful engagements with Indigenous communities.

The Conversation

Wade Paul receives funding for his PhD from St. Mary’s First Nation Education Department and The Social Sciences and Humanities Research Council (SSHRC). He is a member of Sitansisk (St. Mary’s First Nation).

ref. Reconciliation includes recognizing Residential Schools are not the only colonial atrocity – https://theconversation.com/reconciliation-includes-recognizing-residential-schools-are-not-the-only-colonial-atrocity-265527