Comment débutent les cancers du sein ? Conversation avec Alexandra Van Keymeulen

Source: The Conversation – in French – By Alexandra Van Keymeulen, Maître de recherche FNRS au Laboratoire des Cellules Souches et du Cancer, Université Libre de Bruxelles (ULB)

Alexandra Van Keymeulen est biochimiste et spécialiste du cancer du sein. Avec son équipe, elle explore les étapes extrêmement précoces dans le développement des tumeurs, bien avant que celles-ci ne soient détectables. Elle a reçu Elsa Couderc, cheffe de rubrique Science et Technologie, pour expliquer simplement ce qu’est un cancer, et les avancées de la recherche depuis qu’elle a débuté dans le domaine.


The Conversation France : Aujourd’hui, vous êtes une spécialiste reconnue sur l’origine du cancer du sein, mais vous n’avez pas commencé vos recherches par là.

Alexandra Van Keymeulen : J’ai fait ma thèse, en Belgique, sur la thyroïde. J’étudiais les mécanismes qui font que les cellules thyroïdiennes prennent la décision de se diviser. Comme les cellules ne sont pas immortelles, qu’elles vivent moins longtemps que nous, il y a sans arrêt des cellules qui meurent et, donc, des cellules qui se divisent pour donner naissance à de nouvelles cellules. Dans une thyroïde saine, les cellules prennent en permanence la décision de se diviser ou non pour donner naissance à la prochaine génération de cellules.

Je travaillais sur les thyroïdes saines, mais dans un groupe où d’autres personnes étudiaient le cancer de la thyroïde. En effet, les mécanismes de division cellulaire sont dérégulés dans le cas d’un cancer : les cellules se divisent de manière anarchique, sans contrôle. Elles forment une masse, un peu comme un mini-organe. Elles ne répondent plus aux signaux environnants qui leur indiquent de stopper leur croissance. La division cellulaire incontrôlée est la première étape pour former une tumeur.

Mais une tumeur bénigne n’est pas appelée « cancer ». Un cancer a aussi des caractéristiques invasives, c’est-à-dire que ces cellules migrent et envahissent les autres tissus.

Et justement, après ma thèse, je suis partie cinq années à San Francisco en postdoctorat. Là, j’ai travaillé sur la migration cellulaire. Je ne travaillais toujours pas sur des cellules cancéreuses, mais sur les mécanismes intrinsèques, au sein des cellules, qui font qu’elles se déplacent d’un organe à l’autre ; typiquement, ce sont les cellules du système immunitaire qui se déplacent pour aller au site de l’infection.

Ce sont ces mécanismes-là qui sont piratés par les cellules cancéreuses pour former des métastases. Les cellules cancéreuses migrent moins vite que des cellules du système immunitaire, mais elles arrivent à se déplacer.

Après avoir étudié la division cellulaire et la migration des cellules saines, vous êtes rentrée en Belgique pour étudier les cancers du sein ?

A. V. K. : Oui, je suis rentrée en même temps que Cédric Blanpain et j’ai rejoint l’équipe qu’il était en train de monter. Il est spécialiste du cancer de la peau. Très vite, j’ai décidé de travailler sur le sein, qui n’est pas si différent que ça de la peau, car ces deux organes sont composés de cellules épithéliales. Ils ont des caractéristiques communes et donc on peut utiliser les mêmes souris pour les projets qui ont trait au cancer de la peau ou au cancer du sein.

À ce stade, c’était nouveau pour vous comme organe d’étude ?

A. V. K. : Tout était nouveau ! Travailler sur le sein était nouveau, mais je n’avais jamais travaillé non plus avec des souris.

Et quelles étaient les grandes questions de la recherche sur le cancer du sein à l’époque ? Qu’est-ce que vous cherchiez à savoir, dans ce tout nouveau labo, en 2006 ?

A. V. K. : La grande question, c’était de savoir quelles cellules sont à l’origine des cancers du sein. Il y avait déjà à l’époque deux hypothèses. En vingt ans, on a répondu à certaines choses, mais ces deux hypothèses sont toujours là aujourd’hui. Pourquoi y a-t-il différents types de cancer du sein ? Est-ce parce que les patients ont eu différentes mutations génétiques ou parce que les mutations sont survenues dans différents types de cellules de la glande mammaire ? On pourrait avoir aussi une combinaison de ces deux explications.

En ce qui concerne les mutations, on avait déjà repéré que certaines mutations génétiques sont liées à certains types de cancers du sein chez l’humain : on dit que la mutation a un impact sur l’issue tumorale.

Pour explorer l’autre hypothèse – quelles sont les cellules à l’origine d’un cancer, il a d’abord fallu comprendre comment se renouvellent les cellules dans la glande mammaire. Est-ce que tous les types de cellules de la glande mammaire sont maintenus par un seul type de cellule souche, ou bien est-ce qu’à chaque type de cellule correspond une cellule souche ? On appelle ça la « hiérarchie cellulaire ».

Qu’est-ce qu’une cellule souche ?

  • Une cellule souche adulte est une cellule capable, à la fois, de générer des cellules spécialisées d’un organe et de se régénérer dans l’organe pour une spécialisation ultérieure.

Comment étudiez-vous d’où viennent les cellules de la glande mammaire et comment elles se renouvellent tout au cours de la vie, pendant une grossesse, l’allaitement, etc. ?

A. V. K. : On a fait du « traçage de lignée » (lineage tracing, en anglais), qui est notre grande spécialité au laboratoire. Cette technique consiste à introduire un marqueur fluorescent dans une cellule. Comme ce marqueur fluorescent est dû à une mutation génétique, le marquage est irréversible : une fois que la cellule est fluorescente, elle va le rester toute sa vie. Et surtout, si elle se divise, toute sa progéniture va être fluorescente aussi… ce qui va nous permettre de suivre le devenir d’une cellule ! Si on a ciblé une cellule qui ne se divise plus, elle va être éliminée après quelques semaines et on n’aura plus de fluorescence. Par contre, si on a ciblé une cellule souche, on va voir qu’elle va donner naissance à de nouvelles cellules qui vont également être fluorescentes.

Avec cette technique, on a pu étudier comment les glandes mammaires sont maintenues au cours du temps et démontrer, en 2011, que ce sont différents types de cellules souches qui renouvellent la glande mammaire.

C’était vraiment un changement de paradigme, car on croyait à l’époque qu’en haut de la hiérarchie cellulaire de la glande mammaire, il y avait des cellules souches « multipotentes » (c’est-à-dire, capables de se différencier en plusieurs types de cellules). On sait aujourd’hui qu’il y a trois types de cellules souches dans la glande mammaire, qui se différencient chacune en un seul type de cellule.

Quels sont ces trois types de cellules dans le sein ?

A. V. K. : Les glandes mammaires contiennent un réseau de tuyaux reliés au mamelon, et qui vont produire le lait à l’intérieur du tube pour l’expulser.

Un premier type de cellules est celui des « cellules basales », aussi appelées myoépithéliales, qui ont des propriétés contractiles et vont se contracter au moment de l’allaitement pour expulser le lait.

Puis, à l’intérieur des tubes, se trouve la couche luminale, qui est composée de deux types de cellules : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. Les positives vont sentir la présence des hormones et relayer les signaux hormonaux aux autres cellules, pour dire « Maintenant, on se divise tous ensemble ». Les négatives sécrètent du lait pendant l’allaitement.

Donc aux trois types de cellules dans le sein correspondent trois types de cellules souches « unipotentes ». Mais en ce qui concerne la formation de tumeurs cancéreuses : comment étudiez-vous une tumeur avant même qu’elle existe ? Vous avez une machine à remonter le temps ?

A. V. K. : Eh non ! Il faut prédisposer les souris aux tumeurs. Pour cela, on utilise des souris transgéniques, avec une mutation génétique dont on sait qu’elle est favorable à un cancer du sein. On insère la mutation soit dans les cellules luminales, soit dans les cellules basales. Et on a montré que le type de cancer développé n’est pas le même lorsque la mutation est introduite dans les cellules luminales ou basales.

Comment ça se passe en pratique ? Vous induisez une mutation génétique, mais vous ne pouvez pas être sûre que chaque souris va développer un cancer. Est-ce qu’il faut tuer la souris avant qu’elle développe un cancer, ou on peut faire des prélèvements ?

A. V. K. : Effectivement, toutes les souris prédisposées ne développent pas de cancers. Pour savoir comment ça évolue, nous palpons les souris – comme les palpations qui accompagnent les mammographies dans les examens pour les femmes. Il existe aussi des PET-scanners pour souris, mais mon laboratoire n’est pas équipé.

Si on palpe une tumeur, alors on tue la souris afin de prélever la tumeur et d’étudier le type de cancer qui a été provoqué par la mutation que nous avions induite. C’est comme cela que nous avons démontré, en 2015, qu’une même mutation n’a pas le même effet si elle est introduite sur une cellule basale ou sur une cellule luminale.

Ensuite on a développé un outil pour cibler les cellules luminales, qui sont divisées en deux types, comme on l’a vu : celles qui sont positives aux récepteurs aux œstrogènes et celles qui sont négatives aux récepteurs aux œstrogènes. C’est ce que nous avons publié en 2017. On s’est posé la même question que précédemment : est-ce qu’une même mutation génétique provoque des types de cancers différents ?

Ce sont des recherches qui sont encore en cours, mais, à nouveau, nos résultats semblent montrer que l’issue tumorale dépend de la cellule dans laquelle survient la première mutation.

Vous avez étudié plusieurs mutations connues pour favoriser les cancers du sein ?

A. V. K. : On connaît aujourd’hui des dizaines de mutations génétiques responsables de cancers du sein. Les étudier toutes va prendre du temps, d’autant que cette librairie de mutations est peut-être non exhaustive. Pour l’instant, nous avons étudié une seule mutation, qui est l’une des plus courantes dans le cancer du sein chez la femme.




À lire aussi :
Cancer du sein : une nouvelle étude révèle un risque génétique chez les femmes africaines


Est-ce que vous interagissez avec les médecins, avec les patientes ?

A. V. K. : Avec les médecins, oui, bien sûr. On se retrouve aux conférences, et certains de mes collègues sont médecins à l’hôpital universitaire de l’Université libre de Bruxelles, juste à côté de notre laboratoire. Quand j’ai des résultats, je vais en discuter avec un spécialiste du cancer du sein chez l’humain pour essayer de trouver la pertinence pour des cancers chez l’humain.

Je fais aussi partie des experts scientifiques bénévoles pour la Fondation contre le cancer belge – ça fait partie des missions d’un chercheur à l’université que de prendre ce genre de rôle.

Les patientes, je les rencontre plutôt pour de la vulgarisation, avec la Fondation contre le cancer, qui organise tous les ans des visites de laboratoire. Il y a aussi le Télévie, un organisme inspiré du Téléthon, en Belgique francophone et au Luxembourg, où on côtoie des patients et des bénévoles lors d’événements. Ces organismes sont aussi des financeurs de nos recherches.

La prévention est un thème qui me tient à cœur, puisqu’un cancer du sein sur quatre pourrait être évité en éliminant le tabac, l’alcool, le surpoids et en faisant régulièrement de l’activité physique. En particulier, le fait que même une consommation légère d’alcool augmente le risque de cancer du sein est encore très méconnu du grand public, mais démontré scientifiquement.




À lire aussi :
Pourquoi l’alcool augmente le risque de cancer, et ce, dès le premier verre


On entend beaucoup parler de certains cancers du sein qui sont liés à des prédispositions génétiques…

A. V. K. : En fait, il n’y a que 10 % des cancers du sein qui viennent de prédispositions génétiques, c’est-à-dire des mutations présentes depuis la naissance, comme c’est le cas d’Angelina Jolie.

La grande majorité des cancers provient de mutations génétiques qui ont lieu au cours de la vie, par exemple à cause de cassures de l’ADN qui sont liées à la consommation de tabac et d’alcool, et qui ont été mal ou pas réparées par l’organisme.

Or, plus un cancer est pris tôt, plus les chances de guérison sont grandes et plus le traitement sera léger. D’où l’intérêt de notre travail sur les étapes extrêmement précoces dans le développement d’une tumeur… mais aussi l’importance pour le patient de consulter dès l’apparition de symptômes.

Justement, vous disiez tout à l’heure que les grandes questions sur l’origine des cancers du sein, qui prévalaient au début de votre carrière, étaient toujours d’actualité aujourd’hui ?

A. V. K. : Tout à fait. Quand on introduit une mutation dans les souris, on doit attendre plusieurs mois – parfois six mois ou un an – avant d’observer l’apparition d’une tumeur. Mais on ne sait pas encore ce qui se passe dans la glande mammaire pendant ce temps-là.

C’est pour cela que je disais tout à l’heure que la question que nous nous posions il y a vingt ans demeure dans une certaine mesure : on cherche toujours ce qu’il se passe dans les cellules qui sont à l’origine du cancer.

En fait, on observe que la mutation change complètement le comportement de ces cellules. La structure extérieure macroscopique de la glande mammaire reste la même, mais, à l’intérieur, les cellules sont tout à fait reprogrammées. Elles deviennent beaucoup plus plastiques, multipotentes – c’est-à-dire qu’elles peuvent donner lieu aux autres types cellulaires.

L’idée serait d’avoir une « fenêtre de tir » thérapeutique entre la mutation et le développement d’une tumeur ?

A. V. K. : Tout à fait : si on comprend ce qui se passe pendant cette période-là, on pourrait imaginer des outils de diagnostic. Par exemple, pour les femmes qui sont prédisposées génétiquement, comme Angelina Jolie, plutôt que d’enlever les seins et les ovaires, on aimerait pouvoir les surveiller de près et, dès que l’on verrait apparaître certaines de ces étapes précoces, intervenir avec un traitement préventif pour inhiber le développement d’une tumeur cancéreuse.

À l’heure actuelle, ça reste hypothétique : nous sommes un laboratoire de recherche fondamentale. Aujourd’hui, on essaye de comprendre ce qui se passe entre l’introduction de la mutation et le début de la tumeur. Auparavant, on devait se contenter d’étudier les tumeurs elles-mêmes, car nous n’avions pas les outils pour étudier cette fenêtre de six mois – je précise que cette durée est évaluée chez les souris, pas chez les humains.

Pour mener à un cancer, il faut une mutation génétique dans une seule cellule, ou bien la même mutation dans plein de cellules différentes, une accumulation progressive ?

A. V. K. : Il faut plusieurs mutations dans une seule cellule – s’il ne fallait qu’une mutation dans une cellule, tout le monde aurait des cancers partout ! C’est une accumulation de probablement sept ou huit mutations bien spécifiques.

Mais quand une cellule est mutée, souvent ce qu’on observe, c’est que ces mutations donnent un avantage à ces cellules par rapport aux cellules avoisinantes. Des études récentes montrent par exemple des « taches » dans la peau des paupières, invisibles à l’œil nu. Ce sont des zones de la peau où toutes les cellules ont les mêmes mutations. Elles proviennent d’une seule et même cellule, qui s’est divisée, au détriment des cellules avoisinantes : en se divisant, les descendantes de la cellule mutée poussent les autres et propagent les mutations. C’est aussi vrai pour d’autres organes, notamment la glande mammaire.

Aujourd’hui, sur les étapes précoces des cancers du sein, nous cherchons donc à savoir comment les cellules à l’origine du cancer sont reprogrammées génétiquement et comment cela leur confère un avantage par rapport aux cellules saines. On explore ainsi petit à petit les grandes étapes qui mènent à une tumeur.

The Conversation

Alexandra Van Keymeulen est consultant scientifique de Cancer State Therapeutics.
Ses recherches bénéficient du soutien financier du FNRS, Télévie, Fondation contre le Cancer et du Fonds Gaston Ithier.

ref. Comment débutent les cancers du sein ? Conversation avec Alexandra Van Keymeulen – https://theconversation.com/comment-debutent-les-cancers-du-sein-conversation-avec-alexandra-van-keymeulen-265813

Fusion nucléaire : les systèmes d’IA changent déjà la donne

Source: The Conversation – in French – By Waleed Mouhali, Enseignant-chercheur en Physique, ECE Paris

On peut déclencher des réactions de fusion nucléaire en focalisant des lasers ultrapuissants sur une toute petite fraction de cette chambre sphérique. National Ignition Facility, Lawrence Livermore National Laboratory, Lawrence Livermore National Security, LLC, and the Department of Energy, CC BY

La fusion nucléaire, qui alimente notre Soleil, est l’un des plus grands espoirs pour produire une énergie propre, abondante et sûre. Elle consiste à fusionner des noyaux légers, par exemple de l’hydrogène, pour former des noyaux plus lourds, en libérant une énorme quantité d’énergie. Contrairement à la fission, elle ne génère pas de déchets radioactifs de longue durée ni de gaz à effet de serre.

Mais recréer cette réaction sur Terre est un défi technologique et scientifique colossal. Les prototypes sont gigantesques et très coûteux, et le numérique prend une place importante pour faciliter les essais. Depuis le milieu des années 2010, et de manière accélérée depuis 2020, des systèmes d’intelligence artificielle sont utilisés pour contrôler le plasma et améliorer la conception de futurs réacteurs.


Pour atteindre la fusion, il faut chauffer les atomes à des températures de plus de 100 millions de degrés. Les atomes forment alors un plasma, un gaz ionisé ultra-chaud impossible à contenir par des matériaux solides.

Les physiciens doivent donc faire preuve d’imagination et deux grandes approches expérimentales sont poursuivies depuis des décennies : l’une avec des champs magnétiques, l’autre avec des lasers.

La fusion par confinement magnétique confine le plasma par de puissants champs magnétiques dans un réacteur en forme de tore, appelé « tokamak ». Le projet international ITER, un consortium international impliquant l’Union européenne, le Japon, les États-Unis, la Chine, la Russie, l’Inde et la Corée du Sud et installé en Provence, est l’exemple le plus ambitieux, mais il existe de nombreux tokamaks expérimentaux à travers le monde.

schéma 3D d’ITER
Le tokamak ITER, avec le tore au centre et les différents étages de service autour.
Oak Ridge National Laboratory, CC BY
carte du monde
Les installations de fusion nucléaire dans le monde (incluant tokamaks et autres technologies).
Rémi Delaporte Mathurin, MIT, CC BY

La fusion par confinement inertiel utilise des lasers, incarnée par le laboratoire National Ignition Facility aux États-Unis. Au NIF, les scientifiques utilisent 192 lasers géants pour comprimer et chauffer une capsule de combustible en une fraction de seconde, et pendant une minuscule fraction de seconde.

Les deux approches font face à d’énormes défis : maintenir la stabilité du plasma, éviter les instabilités destructrices, prédire les disruptions (par exemple, dans un tokamak, une « disruption thermique » peut brutalement refroidir le plasma et libérer son énergie sur les parois, risquant de les endommager), optimiser les tirs laser ou la forme du plasma.

Et c’est ici que l’intelligence artificielle entre en scène. L’outil numérique a toujours été vital pour saisir les phénomènes complexes, grâce notamment à l’analyse de données massives. Aujourd’hui, l’IA pousse cette capacité encore plus loin.

Fusion magnétique : une IA aux commandes du plasma

Dans les tokamaks, des milliards de données sont générées à chaque tir : images, champs magnétiques, températures, densités. En 2022, une avancée spectaculaire a été réalisée dans le tokamak TCV (Tokamak à Configuration Variable) de l’EPFL à Lausanne, qui est un dispositif expérimental de taille moyenne, dédié aux recherches fondamentales. Une intelligence artificielle développée par DeepMind et le Swiss Plasma Center a été utilisée pour contrôler en temps réel la forme et la position du plasma en utilisant l’apprentissage par renforcement profond. Les ajustements de l’IA se font en temps réel, à l’échelle de la milliseconde, ce qui correspond aux temps caractéristiques de l’évolution des instabilités dans un plasma de tokamak. Ainsi, l’algorithme peut ajuster les champs magnétiques de manière dynamique pour maintenir le plasma stable, une première mondiale publiée dans la revue Nature.

Autre prouesse : la prédiction des disruptions, ces instabilités soudaines qui peuvent endommager les réacteurs. Des modèles d’apprentissage automatique, comme les réseaux de neurones, sont capables d’identifier les signaux précoces de telles instabilités.

Ainsi, sur le tokamak DIII-D aux États-Unis, une IA entraînée uniquement sur des données expérimentales de ce tokamak a pu anticiper une disruption, 300 millisecondes à l’avance, donnant au système le temps de réagir. Cette approche sans modèle physique — c’est-à-dire basée uniquement sur une IA analysant en temps réel les données du réacteur (data-driven) —, a permis d’activer des systèmes d’atténuation (par exemple injection d’impuretés ou modulation des champs) à temps, ce qui a stabilisé le plasma. On conclut qu’une disruption a été évitée non pas parce qu’on l’a « vue » se produire, mais parce que les conditions observées correspondaient à celles qui, dans toutes les campagnes précédentes sans intervention, menaient invariablement à une interruption brutale. Publiés dans Nature en 2024, ces résultats ouvrent la voie à un contrôle plus dynamique des réactions de fusion.

L’IA est aussi utilisée pour améliorer les diagnostics, repérer les anomalies dans les capteurs, analyser les vidéos de turbulence plasma ou encore accélérer les simulations grâce aux jumeaux numériques.

Un jumeau numérique est une réplique informatique d’un système réel, alimentée en continu par des données expérimentales. Dans le cas de la fusion, il s’agit de modèles capables de reproduire l’évolution d’un plasma. L’IA intervient ici pour accélérer ces modèles (par exemple en remplaçant des calculs très lourds de mécanique des fluides par des approximations apprises) et pour combler les manques des équations physiques là où les théories actuelles sont incomplètes.

Alors que, dans le cas précédent, l’IA prédisait un événement critique (une disruption) à partir de données, les jumeaux numériques assistés par IA permettent d’accélérer des simulations complètes de plasma pour des usages plus prospectifs — l’optimisation de l’architecture d’un réacteur par exemple.

Fusion inertielle : concevoir les meilleurs tirs laser avec l’IA

La fusion inertielle, elle, repose sur la compression ultrarapide de capsules de combustible par des lasers. Les tirs sont rares et coûteux, principalement à cause de l’énergie colossale nécessaire pour alimenter les lasers (et leur préparation), mais aussi du coût des capsules de combustible et du temps de recalibrage entre deux tirs. Dans ces conditions, chaque milliseconde compte.

Ici encore, l’IA change la donne. À l’Université de Rochester, aux États-Unis, une IA a été entraînée à optimiser la forme des impulsions laser sur le système OMEGA (le plus puissant laser académique au monde, dédié à la recherche sur la fusion par confinement inertiel). OMEGA génère ces tirs avec précision, et des diagnostics mesurent les résultats à des échelles de millionièmes de mètre et de trillionièmes de seconde.

L’IA est utilisée pour corriger les écarts entre simulations et réalité, optimiser les impulsions laser, et proposer les meilleures configurations expérimentales. Résultat : une augmentation spectaculaire du rendement de fusion, multiplié par trois dans certains cas. Ce type de modèle, publié dans Nature, permet d’explorer rapidement un vaste espace de configurations sans tout tester expérimentalement.

L’IA est aussi utilisée pour corriger les simulations, combler les écarts entre théorie et réalité, et proposer des conceptions inverses : on fixe un objectif (par exemple, atteindre l’ignition) et l’IA propose le meilleur design pour y arriver. C’est ce qui a permis, fin 2022, à NIF d’atteindre pour la première fois un rendement de fusion supérieur à l’énergie injectée par les lasers, un jalon historique.

Enfin, plusieurs types de systèmes d’intelligence artificielle sont utilisés : certains sont spécialisés dans l’analyse d’images pour exploiter les diagnostics, d’autres aident les robots à bien viser et aligner les cibles, et d’autres encore reconnaissent automatiquement quand un tir a échoué. L’objectif à terme est d’automatiser totalement ces expériences, en les rendant adaptatives et intelligentes.

Défis et avenir de l’IA dans la fusion

Alors que d’ici 2035, ITER générera environ 2 pétaoctets de données par jour, on comprend que la science des données se révèlera vitale pour traiter et appréhender toutes les informations.

Intégrer des systèmes d’IA à la fusion n’est pas sans obstacle. Les modèles doivent être rapides (c’est-à-dire capables de donner des résultats quasi en temps réel pour accompagner le pilotage du plasma), robustes (résistants aux erreurs de mesure et aux variations des données), interprétables (leurs décisions doivent pouvoir être comprises par les physiciens et justifiées, et non pas rester une « boîte noire ») et transférables d’une machine à l’autre (un modèle entraîné sur un tokamak donné doit pouvoir être adapté sans repartir de zéro sur un autre dispositif).

Les chercheurs travaillent donc sur des systèmes d’IA informés par la physique, capables d’expliquer leurs décisions et respectueux des lois fondamentales. Les données sont aussi limitées pour certains dispositifs comme NIF, ce qui pousse à combiner expériences et simulations pour enrichir les jeux de données. En effet, plus le volume de données est grand, plus l’IA peut apprendre des régularités complexes du plasma ; tandis qu’un jeu de données limité risque de conduire à des modèles biaisés ou peu généralisables.

Au-delà des limitations techniques actuelles, par exemple la puissance de calcul nécessaire pour traiter en temps réel les données issues de milliers de capteurs, la difficulté à garantir la fiabilité des prédictions face à un plasma chaotique ou encore la rareté de bases de données suffisamment riches pour entraîner correctement les modèles, l’intégration de systèmes d’IA dans des réacteurs de fusion pose aussi des questions de responsabilité. En cas de défaillance d’un algorithme entraînant une perte de confinement ou un dommage matériel, qui serait responsable : les concepteurs du réacteur, les développeurs du logiciel, ou les opérateurs ? Ces enjeux juridiques et éthiques restent encore largement ouverts, mais sont cruciaux au regard des énergies et températures en jeu.

Dans les années à venir, l’intégration de l’IA pourrait accélérer les progrès vers une fusion maîtrisée et commercialement viable. Si la fusion est le rêve énergétique ultime, alors l’intelligence artificielle pourrait bien en être la clé.

The Conversation

Sadruddin Benkadda reçoit des financements de Aix Marseille Université, CNRS et de EUROFUSION.

Collaboration avec ITER Organisation et l’IRFM (CEA)

Thierry Lehner et Waleed Mouhali ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. Fusion nucléaire : les systèmes d’IA changent déjà la donne – https://theconversation.com/fusion-nucleaire-les-systemes-dia-changent-deja-la-donne-265006

Les chats peuvent aussi souffrir de démence : les huit signes à surveiller

Source: The Conversation – in French – By Emily Blackwell, Senior Lecturer in Animal Behaviour and Welfare, University of Bristol

Les changements de comportement peuvent être un signe de démence chez les chats. larisa Stefanjuk/ Shutterstock

Tous comme les humains, les chats subissent un déclin cognitif en vieillissant pouvant aller jusqu’à de la démence : quels en sont les signes et comment accompagner, au mieux, votre chat vieillissant ?


De nombreux propriétaires de chats ne réalisent pas que, tout comme les humains, les chats peuvent souffrir de démence. Un article scientifique récent a même mis en évidence de nombreuses similitudes entre la démence féline et la démence humaine, concluant que les troubles cognitifs peuvent se développer de manière similaire.

Certains symptômes de la démence chez les chats sont même similaires à ceux que l’on observe chez les humains, mais pas tous, bien sûr. Il est important de connaître les signes à surveiller afin de pouvoir prodiguer les meilleurs soins à votre animal pendant cette phase de sa vie.

Le syndrome de dysfonctionnement cognitif félin (également appelé démence féline) est un déclin des capacités cognitives d’un chat lié à l’âge. Il se caractérise généralement par des changements de comportement qui ne peuvent être attribués à d’autres troubles médicaux.

La démence féline serait très fréquente chez les chats âgés. Une étude a révélé qu’à l’âge de 15 ans, plus de la moitié des chats présentaient des signes de démence. Cependant, certains comportements associés à cette maladie ont également été observés chez des chats âgés de seulement 7 ans. Une autre enquête menée auprès de propriétaires de chats a également révélé qu’environ 28 % des chats âgés de 11 à 14 ans présentaient au moins un changement de comportement associé à la démence. (NDLT : l’espérance de vie d’un chat domestique varie entre 13 et 20 ans)

Les changements de comportement sont souvent les premiers signes indiquant qu’il pourrait y avoir un problème. Il existe huit signes à surveiller qui peuvent indiquer que votre chat souffre de démence.

1. Vocalisations inhabituelles : votre chat peut commencer à vocaliser de manière excessive ou dans des situations nouvelles. Un exemple courant est celui des miaulements bruyants pendant la nuit.

2. Modifications de leurs interactions avec les humains : les chats atteints de démence peuvent parfois rechercher davantage d’attention ou devenir « collants ». À l’inverse, ils peuvent également interagir moins qu’auparavant, sembler irritables ou ne pas reconnaître les personnes familières.

3. Changements dans leur sommeil : vous remarquerez peut-être des changements dans les habitudes de sommeil de votre chat, qui deviendra souvent agité la nuit et dormira davantage pendant la journée.

4. Souillures dans la maison : les changements dans les habitudes d’élimination peuvent être le signe de plusieurs troubles différents, mais faire ses besoins en dehors du bac à litière peut être un signe courant de démence chez les chats.

5. Désorientation : tout comme les personnes atteintes de démence, les chats peuvent montrer des signes de confusion ou sembler se perdre. Cela peut se traduire par une perte de repères, un regard fixe sur les murs, le fait de rester coincé derrière des objets ou de se diriger du mauvais côté de la porte.

Un chat tuxedo noir et blanc est couché sur le ventre de son propriétaire pendant que celui-ci le caresse
Les chats atteints de démence peuvent devenir plus collants qu’auparavant.
Creative Family/Shutterstock

6. Changements de niveau d’activité : Un chat atteint de démence peut être plus ou moins actif que d’habitude. Il peut jouer moins souvent ou être moins enclin à explorer. Vous remarquerez peut-être également qu’il passe moins de temps à prendre soin de lui, par exemple en se toilettant ou en se lavant moins souvent.

7. Anxiété apparente : un chat atteint de démence peut montrer des signes d’anxiété dans des situations où il se sentait auparavant en confiance, par exemple en présence de personnes, dans des lieux ou face à des sons familiers. Un chat anxieux peut se cacher plus souvent, se réfugier sous le lit ou sur les placards pour s’échapper.

8. Problèmes d’apprentissage : Les chats atteints de démence peuvent avoir plus de difficultés à accomplir des tâches qu’ils avaient apprises auparavant, comme trouver leur gamelle, et peuvent avoir du mal à en apprendre de nouvelles.

Bien s’occuper de son chat

Il existe un chevauchement important entre les symptômes de la démence féline et d’autres pathologies courantes, telles que l’arthrite et les maladies rénales. Si vous constatez l’un de ces changements de comportement chez votre chat, consultez votre vétérinaire afin d’écarter ces autres problèmes.

Les recherches sur la démence féline sont limitées. La plupart de nos connaissances en matière de prévention et de traitement sont extrapolées à partir de recherches menées sur les humains et les chiens. Et, comme pour ces autres espèces, il n’existe aucun remède contre la démence chez les chats. Il existe toutefois des moyens de limiter l’impact de la maladie.

Certaines modifications de leur environnement peuvent aider à stimuler les chats, en activant leur cerveau et en favorisant la croissance des nerfs. Mais il faut tenir compte de la gravité de la démence de votre chat avant d’apporter ces changements.

Chez les chats en bonne santé ou légèrement atteints, on pense que le fait de les inciter à jouer ou de simuler la chasse à l’aide de jouets interactifs et de les encourager à explorer leur environnement à travers des jeux de cache-cache permet de retarder la progression des troubles cognitifs.

Mais chez les chats souffrant de troubles cognitifs sévères, changer leur environnement pourrait entraîner de la confusion et de l’anxiété, ce qui aggraverait les symptômes comportementaux.

Des changements alimentaires, notamment l’ajout de compléments alimentaires contenant des antioxydants (vitamines E et C) et des acides gras essentiels, peuvent également contribuer à réduire l’inflammation cérébrale et à ralentir la progression de la maladie.

Cependant, seuls les compléments alimentaires spécifiques aux chiens ont été testés dans le cadre de recherches scientifiques et ont prouvé leur efficacité pour améliorer les capacités cognitives des chiens. Mais si vous souhaitez tout de même donner ces compléments à votre chat, veillez à ne lui donner que des compléments approuvés pour les félins. Les compléments alimentaires pour chiens ne doivent pas être donnés aux chats, car ils peuvent contenir des substances toxiques pour eux, telles que l’acide alpha-lipoïque.

La démence féline est une maladie très répandue et difficile à traiter. Connaître les symptômes à surveiller peut permettre à votre chat d’être diagnostiqué plus tôt. Cela vous permettra également d’apporter les changements nécessaires à son environnement ou à son alimentation, ce qui améliorera sa qualité de vie.

The Conversation

Emily Blackwell reçoit des financements de Cats Protection, Zoetis, Defra et Waltham Petcare Science Institute.

Sara Lawrence-Mills reçoit un financement de Zoetis.

ref. Les chats peuvent aussi souffrir de démence : les huit signes à surveiller – https://theconversation.com/les-chats-peuvent-aussi-souffrir-de-demence-les-huit-signes-a-surveiller-264544

Titanic : le navire qui cache la flotte d’épaves en danger

Source: The Conversation – in French – By Laurent Urios, Ingénieur de Recherche en microbiologie de l’environnement, Université de Pau et des pays de l’Adour (UPPA)

L’épave du « Titanic » est en danger et pourrait se briser d’ici 2030. Ce n’est pourtant qu’un cas parmi des millions d’autres. Saviez-vous que les bactéries sont impliquées dans la dégradation des épaves, mais aussi dans leur transformation en oasis de vie ? Mieux connaître ces microorganismes et leurs interactions avec les navires est urgent pour protéger notre patrimoine historique.


La découverte de l’épave du RMS Titanic en 1985 a provoqué un engouement extraordinaire autour de ce navire, son histoire, sa fin tragique et le repos de cette épave dans l’obscurité des profondeurs glacées de l’Atlantique. Les images ont révélé un navire brisé recouvert d’étranges concrétions ressemblant à des stalactites de rouille appelées rusticles.

Elles sont faites notamment à partir du métal de l’épave et leur origine est liée aux microorganismes qui utilisent le fer de l’épave pour leur développement, participant ainsi à la corrosion.

Les interactions entre les bactéries et les matériaux sont au cœur de mes recherches. Les bactéries qui se multiplient à la surface des matériaux peuvent participer à leur protection ou à leur dégradation. Le cas du fer est particulier, car c’est un élément indispensable aux êtres vivants. Mais la biocorrosion, conséquence de son utilisation par les microorganismes, est un phénomène qui touche de nombreux secteurs : industries, installations en mer, sur terre ou souterraines… et bien sûr les épaves métalliques.

Les plongées successives sur le Titanic ont montré un affaiblissement des structures de l’épave rongées par la corrosion et s on effondrement a été évoqué pour 2050, voire 2030. Ceux qui se passionnent pour le Titanic s’alarment : comment sauver cette épave ? Et d’ailleurs, pourquoi faudrait-il sauver le Titanic ?

Qu’est-ce qu’une épave ?

Pourquoi sauver une épave ? Parce qu’elle nous touche, parce qu’elle provoque en nous des sensations, de l’émerveillement. Une épave, c’est un souvenir, un témoin d’une histoire, d’un événement, un vestige d’une création humaine qui a eu une fin le plus souvent tragique. Tout comme un monument historique à terre, une épave gisant sous les eaux témoigne de notre histoire.

La différence, c’est que si tout le monde peut voir le monument, très rares sont ceux qui peuvent voir l’épave. Et pourtant, elle est là, artéfact de notre patrimoine historique. Aux termes de notre législation, c’est un bien culturel maritime. Selon la charte de l’Unesco de 2001, ratifiée par la France en 2013, elle peut faire partie du patrimoine culturel immergé. À ces titres, elle doit être protégée. Est-ce tout ? Non, loin de là. Une épave peut aussi être porteuse d’économie, par les activités de loisirs qui sont menées autour d’elle, comme la plongée sous-marine, ou comme site de ressources halieutiques.

Épave du SG11 ex-Alice Robert torpillé au large de Port-Vendres le 2 juin 1944.
Laurent Urios, Fourni par l’auteur

Une oasis de vie

Dès le moment où l’épave se pose sur le fond, sa colonisation commence. Ce sont d’abord des microorganismes planctoniques qui se fixent sur les surfaces. Cette première étape favorise l’arrivée d’autres organismes, notamment des larves d’animaux vivant fixés sur des substrats durs, comme les gorgones ou les coraux, ainsi que des algues. Tout ce petit monde va attirer ceux qui s’en nourrissent, puis les prédateurs de ces derniers et ainsi de suite… pour aboutir à la formation d’un véritable écosystème récifal, dont les limites sont approximativement celles du site de l’épave, même si la zone d’influence de cet écosystème peut aller bien au-delà.

L’épave se transforme en un récif animé, une oasis de vie gisant sur un morne fond de sable à l’apparence d’un désert sous-marin. Ainsi vont les choses, tant que l’épave tient bon. Tempêtes, filets de pêche, corrosion, avec le temps l’épave s’affaiblit et commence à craquer, d’abord dans ses parties les moins solides, puis dans son ossature. C’est la vie ! Ou justement, c’est la fin de la vie… En perdant ses volumes, l’épave offre de moins en moins de surfaces dures à la colonisation. Les populations d’organismes fixés décroissent, ce qui rend le récif moins attirant pour leurs prédateurs. Plus l’épave se désagrège, plus l’oasis de vie se réduit, jusqu’à disparaître avec le vestige. Plus de vestige, plus d’écosystème récifal, donc, mais encore ? Moins d’attrait pour les plongeurs et pour les pêcheurs, donc moins d’intérêt économique. En enfin, c’est la disparition d’un témoignage de notre histoire, d’une partie de notre patrimoine. Lorsqu’un monument historique tombe en ruine, il se trouve souvent quelqu’un pour tenter de le sauver de l’oubli. Pourquoi en serait-il autrement pour une épave ?

Épave du Prosper Schiaffino dit le Donator qui a sauté sur une mine en 1945 entre Porquerolles et Port Cros.
Laurent Urios, Fourni par l’auteur

Les racines du mal

Quel est le point commun entre le Titanic et nombre d’épaves des deux derniers siècles, dont celles des deux guerres mondiales ? Elles sont en alliages ferreux. Et le fer dans l’eau, ça rouille, surtout en eau salée. En réalité, c’est beaucoup plus compliqué que cela et c’est justement cette complexité qui est au cœur du problème : comment lutter contre un phénomène mal compris ? Pour espérer sauver une épave, il faut d’abord comprendre les mécanismes qui causent sa perte. La corrosion d’une épave métallique n’est pas qu’une affaire de physico-chimie entre l’épave et l’eau dans laquelle elle baigne.

Les microorganismes colonisateurs jouent plusieurs rôles, à la fois dans l’accentuation et dans la protection contre la corrosion. Leur développement a comme effet à court terme l’initiation de l’écosystème récifal. À moyen et long terme, ces bactéries peuvent protéger ou accentuer la corrosion. La prolifération bactérienne s’accompagne de la production de substances organiques qui les enveloppent, formant ainsi ce que l’on appelle un biofilm sur la surface colonisée. D’autres composés peuvent être produits et s’accumuler, par exemple du calcaire. L’ensemble peut agir comme une barrière à l’interface entre le métal et l’eau, avec un effet protecteur. Certains groupes bactériens sont particulièrement attirés par ces épaves, par exemple les zétaprotéobactéries. Elles sont capables d’oxyder le fer. Elles trouvent donc sur ces épaves des conditions favorables à leur développement, avec pour conséquence un rôle dans les mécanismes de la corrosion au cours du temps. Les zétaproteobactéries ne sont pas les seules. La diversité bactérienne colonisant les épaves métalliques est importante. Tout ce petit monde forme des communautés qui varient selon les épaves et les conditions environnementales où elles gisent.

Comprendre la composition et la dynamique des communautés au sein de ces biofilms est nécessaire pour savoir de quelles manières elles participent au devenir de l’épave et pour imaginer des solutions de préservation aussi bien pour les épaves métalliques que pour d’autres structures immergées. En effet, les épaves métalliques ne sont qu’une catégorie de structures immergées. Pour les autres types de structures, les problèmes de conservation, de durabilité de leurs matériaux se posent de la même façon, avec le risque de coûts non négligeables engendrés pour leur entretien. Être en mesure de protéger notre patrimoine historique et culturel immergé va donc bien au-delà. Mais le temps s’écoule et à chaque instant la corrosion poursuit son œuvre, grignotant sans relâche. Les recherches ont besoin de temps et surtout de moyens. Il est difficile de financer des projets regroupant des microbiologistes, des archéologues, des chimistes, des océanographes pour travailler de façon globale sur cette problématique. La rareté des publications scientifiques sur le sujet en atteste et les connaissances sont balbutiantes. Or, dans cette course, il n’y a pas de seconde place : une fois détruite, l’épave est perdue. 2030 pour le Titanic ? Quelle échéance pour les épaves des deux guerres mondiales ? Il y a urgence.

The Conversation

Laurent Urios ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Titanic : le navire qui cache la flotte d’épaves en danger – https://theconversation.com/titanic-le-navire-qui-cache-la-flotte-depaves-en-danger-265033

Nouvelle paralysie des administrations fédérales aux États-Unis : ce que nous enseigne le « shutdown » de 2013

Source: The Conversation – France in French (3) – By Gonzalo Maturana, Associate Professor of Finance, Emory University

Un panneau indique la fermeture des services fédéraux lors du « shutdown » gouvernemental de 2013. AP Photo/Susan Walsh

Ce 1er octobre 2025, l’échec des négociations budgétaires au Congrès a mené à un shutdown. Concrètement, l’administration fédérale pourrait cesser de fonctionner. Une étude sur celui de 2013 – 16 jours durant – révèle des effets négatifs à long terme : un turnover plus élevé, des pertes de productivité mesurables et des coûts de recrutement exorbitants.


Alors que l’année fiscale fédérale touche à sa fin, une perspective malheureusement familière est discutée à Washington : une possible paralysie de l’administration fédérale. Pour les fonctionnaires fédéraux, cela ne pouvait arriver à un pire moment.

Dans le paysage politique divisé et polarisé des États-Unis, les démocrates et les républicains comptent sur des projets de loi de financement provisoires à court terme pour maintenir le gouvernement en activité, en l’absence d’accords budgétaires à plus long terme.

Alors que les partis sont éloignés d’un accord sur les termes d’une résolution budgétaire, même à court terme, le gouvernement doit cesser de fonctionner le 1er octobre 2025, à moins d’un accord de la dernière chance. Si ce shutdown se produit, cela marquerait un autre moment difficile cette année pour des fonctionnaires qui ont fait face à la suppression de plus de 300 000 emplois. Cette procédure de licenciement massif tient aux efforts de l’administration Trump pour restructurer ou supprimer en grande partie certaines agences gouvernementales. L’objectif : accroître leur efficacité.

Avec un potentiel shutdown, des centaines de milliers d’employés fédéraux seraient mis à pied – renvoyés chez eux sans salaire jusqu’à ce que le financement du gouvernement fédéral reprenne.

En tant qu’économistes spécialisés dans les marchés du travail et de l’emploi du secteur public, et ayant examiné des millions de dossiers du personnel fédéral liés à de telles fermetures gouvernementales dans le passé, nous avons constaté que les conséquences vont bien au-delà des images désormais familières de parcs nationaux fermés et de services fédéraux bloqués. Sur la base de notre étude du shutdown d’octobre 2013 au cours de laquelle environ 800 000 employés fédéraux ont été mis à pied pendant 16 jours, la fermeture des agences fédérales laisse un effet négatif durable sur ces fonctionnaires, remodelant leur composition et affaiblissant leur performance pour les années à venir.

Congé forcé pour les fonctionnaires fédéraux

Des millions d’États-Uniens interagissent chaque jour avec le gouvernement fédéral. Plus d’un tiers des dépenses nationales états-uniennes sont acheminées par le biais de programmes fédéraux, notamment Medicare. Les fonctionnaires fédéraux gèrent par exemple les parcs nationaux, rédigent des règlements environnementaux et aident à assurer la sécurité du transport aérien.

Quelles que soient les tendances politiques de chacun, si l’objectif est d’avoir un gouvernement qui s’acquitte efficacement de ces responsabilités, il est essentiel d’attirer et de retenir une main-d’œuvre compétente.

La capacité du gouvernement fédéral à le faire peut être de plus en plus difficile, en partie parce que les shutdown prolongées peuvent avoir des effets secondaires.

Lorsque le Congrès ne parvient pas à approuver des crédits, les agences fédérales doivent licencier des fonctionnaires dont les emplois ne sont pas considérés comme « exemptés » – parfois communément qualifiés d’essentiels. Ces fonctionnaires exclus continuent de travailler, tandis que d’autres n’ont pas le droit de travailler ou même de faire du bénévolat jusqu’à ce que le financement du gouvernement fédéral reprenne.

Le statut spécifique de ces « congés » imposés aux fonctionnaires pendant ce shutdown reflète les sources de financement de ces postes et les catégories de mission données, et non les performances d’un individu. Par conséquent, il ne donne aucun signal sur les perspectives d’avenir pour un fonctionnaire et agit principalement comme un choc pour le moral. Il est important de noter que les congés ne créent pas de pertes de richesse à long terme ; les arriérés de salaire ont toujours été accordés et, depuis 2019, sont légalement garantis. Les fonctionnaires touchent leur salaire, même s’ils peuvent faire face à de réelles contraintes financières à court terme.

Un observateur cynique pourrait qualifier les congés de congés payés, mais les données racontent une autre histoire.

Moral en berne des fonctionnaires

À l’aide de nombreux dossiers administratifs sur les fonctionnaires civils fédéraux du shutdown d’octobre 2013, nous avons étudié la façon dont ce choc moral s’est répercuté sur le fonctionnement des agences gouvernementales. Les fonctionnaires exposés à des congés lors du shutdown étaient 31 % plus susceptibles de quitter leur emploi dans l’année.

Ces départs n’ont pas été rapidement remplacés, ce qui a forcé les agences à compter sur des travailleurs temporaires coûteux et a entraîné des déclins mesurables dans les fonctions essentielles telles que les paiements, l’application des lois et les processus pour délivrer des brevets.

En outre, nous avons constaté que cet exode s’est renforcé au cours des deux premières années suivant un shutdown. Elle se stabilise ensuite par une baisse permanente des effectifs, ce qui implique une perte durable de capital humain. Le choc moral est plus prononcé chez les jeunes femmes et les professionnels très instruits qui ont beaucoup d’opportunités extérieures. En effet, notre analyse des données d’enquête d’un shutdown ultérieur en 2018-2019 confirme que c’est le moral, et non la perte de revenus, qui est à l’origine de ces départs massifs.

Les fonctionnaires qui se sont sentis les plus touchés ont signalé une forte baisse de leur capacité d’action, d’initiatives et de reconnaissance. De facto, ils étaient beaucoup plus susceptibles de planifier un départ.

L’effet de la perte de motivation est frappant. À l’aide d’un modèle économique simple où l’on peut s’attendre à ce que les travailleurs accordent de la valeur à la fois à l’argent et à leur objectif, nous estimons que la baisse de la motivation intrinsèque après un shutdown nécessiterait une augmentation de salaire d’environ 10 % pour compenser.

1 milliard de dollars pour des recrutements temporaires

Certaines personnes ont soutenu que ce départ de fonctionnaires est nécessaire, une façon de réduire le gouvernement fédéral pour « affamer la bête ».

Les preuves brossent un tableau différent. Les agences les plus durement touchées par les licenciements se sont tournées vers des entreprises de recrutement temporaire pour combler les emplois non pourvus. Au cours des deux années qui ont suivi le shutdown de 2016, ces organismes ont dépensé environ 1 milliard de dollars de plus en sous-traitants qu’ils n’ont économisé en salaires.

Les coûts vont au-delà des dépenses de remplacement, car la performance du gouvernement en souffre également. Les organismes qui ont été les plus touchés par le shutdown ont enregistré des taux plus élevés de paiements fédéraux inexacts pendant plusieurs années. Même après une récupération partielle de la main-d’œuvre fédérale, les pertes se sont élevées à des centaines de millions de dollars que les contribuables n’ont jamais récupérés.

Agences scientifiques sans scientifiques

D’autres postes nécessitant des compétences spécialisées ont également connu un déclin. Les poursuites judiciaires ont diminué dans les agences qui ont manqué d’avocats expérimentés, et les activités de brevetage ont chuté dans les agences scientifiques et d’ingénierie après le départ d’inventeurs clés.

Les estimations officielles des coûts du shutdown se concentrent généralement sur les effets à court terme sur le PIB et des arriérés de salaire. Nos résultats montrent qu’une facture encore plus importante se présente plus tard sous la forme d’un turnover plus élevé du personnel, de coûts de main-d’œuvre plus élevés pour combler les postes non pourvus et des pertes de productivité mesurables.

Chocs brutaux

Les shutdown sont des chocs brutaux et récurrents qui démoralisent les fonctionnaires et érodent leurs performances. Ces coûts se répercutent sur tous ceux qui dépendent des services gouvernementaux. Si le public veut des institutions publiques efficaces et responsables, alors nous devrions tous nous soucier d’éviter ces blocages gouvernementaux.

Après une année déjà mouvementée, il n’est pas clair si un shutdown à venir ajouterait considérablement la pression sur les fonctionnaires fédéraux ou aurait un effet plus limité. Beaucoup de ceux qui envisageaient de partir sont déjà partis par le biais de rachats de leurs congés ou de licenciements forcés cette année. Ce qui est clair, c’est que des centaines de milliers d’employés fédéraux sont susceptibles de connaître une autre période d’incertitude.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Nouvelle paralysie des administrations fédérales aux États-Unis : ce que nous enseigne le « shutdown » de 2013 – https://theconversation.com/nouvelle-paralysie-des-administrations-federales-aux-etats-unis-ce-que-nous-enseigne-le-shutdown-de-2013-266384

La taxe Zucman au défi des contraintes économiques et juridiques

Source: The Conversation – in French – By Éric Pichet, Professeur et directeur du Mastère Spécialisé Patrimoine et Immobilier, Kedge Business School

Taxer les très hauts patrimoines pour assurer une meilleure équité de l’effort fiscal, tout le monde devrait être pour. Mais ce n’est pas parce qu’une mesure semble juste, qu’elle sera aussi efficace.


Pour réduire le déficit budgétaire du pays, le plus élevé de la zone euro, mais surtout lutter contre les inégalités de patrimoine en France, l’Assemblée nationale a adopté, le 20 février 2025, un impôt minimal annuel de 2 % sur le patrimoine global (y compris les biens professionnels) des quelque 3 800 « centimillionnaires », ces foyers fiscaux possédant plus de 100 millions d’euros. Les députés favorables au texte ont sans doute été encouragés en cela par un écrasant soutien des électeurs, qui plébiscitent la mesure à plus de 86 %.

Accroissement des inégalités patrimoniales

Cette taxe, aujourd’hui bloquée, car rejetée par le Sénat le 12 juin dernier, a été imaginée par l’économiste franco-américain Gabriel Zucman à partir de ses travaux sur l’évolution des patrimoines aboutissant à un constat incontestable : les inégalités de patrimoine s’accroissent dans les pays riches mais aussi en France.

En outre, les inégalités de patrimoine sont – et ont toujours été – plus fortes que celles des revenus puisque les 10 % les plus riches détiennent 54 % de la richesse contre 25 % des revenus.

La nature de la taxe Zucman

Concrètement, l’Assemblée nationale a adopté la création d’un impôt plancher sur la fortune (IPF), dès le 1er janvier 2026, de 2 % par an sur le patrimoine des foyers fiscaux (au sens de l’ISF, donc hors enfants majeurs) dont le patrimoine net de certaines dettes est supérieur à 100 millions d’euros, soit les 0,01 % des foyers les plus riches, ou environ 3 800 ménages, alors que l’impôt sur la fortune immobilière (IFI) concernait 186 000 ménages en 2024.




À lire aussi :
Les alternatives à l’impôt sur la fortune


La taxe Zucman reprend une bonne partie des principes de l’impôt de solidarité sur la fortune, l’ISF, qui était lui-même aligné sur les règles applicables aux droits de succession, mais s’en écarte par trois nouveautés cruciales. En premier lieu, la base taxable est considérablement élargie à l’ensemble des actifs, y compris les biens professionnels. En second lieu, cet impôt sur le patrimoine ne prévoit aucun plafonnement en fonction du revenu du contribuable. Enfin, il est assorti d’une exit tax puisqu’il continuera à être perçu pendant les cinq années qui suivent une expatriation de l’assujetti.

Une taxe rentable ?

Les soutiens de la taxe Zucman et de la loi qui en découle attendent un rendement de l’ordre de 15 à 25 milliards d’euros par an, calculé sur le montant total global des fortunes concernées. Bien entendu, cette estimation ne prend pas en compte le risque d’une expatriation des contribuables que M. Zucman estime marginal.

La proposition de loi a d’ores et déjà provoqué une levée de boucliers, notamment des entrepreneurs de la French Tech, qui seraient bien incapables de payer 2 % sur la valorisation de leurs start-ups. Ce mouvement rappelle celui des « pigeons », ces entrepreneurs qui avaient protesté avec véhémence contre la loi de finances pour 2013 décidée par François Hollande, lors de son accession à l’Élysée en 2012, et qui alourdissait fortement l’imposition des plus-values. L’ampleur de la contestation avait finalement abouti à une modification substantielle et rétroactive de la réforme. Signalons la tribune – très minoritaire – signée par trois entrepreneurs favorables à cette taxe ou, encore, la position tout en équilibre d’Arthur Mensch, le fondateur et dirigeant de Mistral, qui semble critiquer le mécanisme prévu de la taxe Zucman, tout en reconnaissant qu’une solution doit être trouvée pour remettre un peu d’égalité entre les citoyens.

La taxe Zucman fait également l’objet de vifs débats chez les économistes. Si ses partisans soulignent la nécessaire réduction des inégalités et un surcroît de recettes fiscales bienvenu aujourd’hui, ses détracteurs s’inquiètent d’une baisse des investissements et in fine d’un appauvrissement du pays.

Dans un article publié dans la Revue de droit fiscal, du 5 avril 2007,, j’avais analysé les conséquences économiques de l’ISF.

À partir de données officielles publiées par Bercy, j’avais constaté, sans avoir été sérieusement contesté, une baisse du rendement de l’ISF qui ne pouvait s’expliquer que par une vague d’expatriation. Depuis, il existe un consensus des chercheurs sur l’existence de ces départs, mais un débat des plus vifs sur son ampleur. Une étude récente du conseil d’analyse économique tend à minorer le phénomène d’expatriation et son impact budgétaire et économique. Le champ de cette dernière étude est circonscrit aux années 2012-2017 et, surtout, ses auteurs ont mesuré les départs des plus hauts revenus du patrimoine, et non les départs des plus riches (ils n’auraient donc pas pu intégrer les dirigeants des start-ups fortement valorisées, par exemple).

Pour ma part, j’évaluais la fuite légale des capitaux à l’étranger depuis la création de l’ISF, en 1989, à environ 200 milliards d’euros et estimais que le manque à gagner en recettes fiscales était d’environ 7 milliards d’euros par an, soit près du double de son rapport. En conclusion, dans un monde ouvert, l’ISF appauvrissait le pays et entraînait même un transfert de la charge fiscale des riches assujettis, qui quittent la France vers tous les autres contribuables à l’exact opposé de la justice fiscale. Ces estimations ont depuis été corroborées et même amplifiées par une étude de l’institut Rexecode, parue en 2017, qui estimait que le PIB avait perdu, du fait des expatriations, 45 milliards d’euros en 2017, soit une perte de prélèvements obligatoires de 20 milliards par an.

Le naufrage de la taxe sur les mégayachts

Encore faut-il préciser que ces études ne concernaient que les quelque 360 000 assujettis à l’ISF d’avant sa suppression en 2018, c’est-à-dire un type de contribuables fondamentalement différents des 1 800 ultrariches concernés par la taxe Zucman qui peuvent envisager beaucoup plus efficacement un départ à l’étranger.

C’est pourquoi il est intéressant d’étudier le rendement de la taxe sur les mégayachts instituée par la loi de finances pour 2018. Cette taxe était censée rapporter dix millions d’euros par an. Elle n’a collecté finalement que 135 000 euros en 2023 et 60 000 euros en 2024. Aux dernières nouvelles, seuls cinq mégayachts sont éligibles à la taxe…

Regain de concurrence fiscale entre les pays

Tout comme l’impôt sur la fortune, qui a progressivement disparu des systèmes fiscaux européens des pays riches et dont Gabriel Zucman a l’honnêteté de reconnaître que « dans l’ensemble, ces impôts avaient été un échec », les pays qui ont récemment durci l’imposition des ultrariches font face à un flux de départs. C’est le cas de la Norvège, un des rares États à avoir conservé un impôt sur la fortune et qui l’avait augmenté à 1,1 %, tout en relevant l’imposition des dividendes en 2022.

La mesure, qui devait rapporter 141 millions d’euros, s’est traduite par une perte de 433 millions d’euros et par la fuite des capitaux, principalement en Suisse, estimée à 52 milliards d’euros. À tel point que ses voisins suédois et finlandais – un temps intéressés – en ont abandonné l’idée. Plus près de nous, le Royaume-Uni a supprimé, le 6 avril 2025, le régime de « non-domiciled » (ou, « non dom »), qui datait de George III (1799) et qui imposait forfaitairement les revenus des étrangers installés sur l’île, entraînant dès son annonce un fort mouvement de départ des ultrariches, comme l’industriel Lakshmi Mittal, vers Dubai, Monaco et Milan.

Au moment où la France envisage de durcir la taxation des centimillionnaires, des pays européens attractifs leur font les yeux doux. C’est le cas de l’Italie qui offre aux nouveaux résidents un forfait annuel tous impôts confondus de 200 000 euros (plus 25 000 euros par membre supplémentaire du foyer, conjoint compris) pendant quinze ans, ce qui avait déclenché les foudres de l’encore premier ministre François Bayrou contre Mme Meloni.

Le Figaro, 2025.

On notera d’ailleurs que Portugal, Italie, Grèce et Espagne ont tous cherché, à l’occasion de leur plan de redressement des finances publiques lancé en 2011, à attirer les grandes fortunes par des avantages fiscaux exorbitants du droit commun. La palme revient à la Grèce qui, moyennant un investissement minimal de 500 000 euros, offre pendant quinze ans aux nouveaux résidents qui s’acquittent d’un forfait annuel de 100 000 euros, une exonération de tous leurs revenus étrangers et des droits de succession de leur patrimoine situé hors du pays.

Un obstacle constitutionnel majeur

À supposer que la taxe Zucman, qui n’a été votée que par 116 voix des 577 députés, passe l’épreuve du Sénat et soit définitivement adoptée, ce qui est très loin d’être acquis, elle devra encore passer sous les fourches caudines du Conseil constitutionnel qui sera bien sûr saisi par ses opposants. Or, sa jurisprudence récente n’est pas du tout favorable à la taxe.

En effet, dans sa décision du 9 août 2012 relative à la loi de finances rectificative pour 2012, il précise que le législateur ne saurait établir un barème de l’impôt de solidarité sur la fortune sans l’assortir d’un dispositif de plafonnement, ou produisant des effets équivalents destinés à éviter une rupture caractérisée de l’égalité devant les charges publiques. Enfin, dans sa décision du 29 décembre 2012 relative à la loi de finances pour 2013, le Conseil a précisé que le plafonnement ne peut prendre en compte que les revenus réalisés et disponibles, une solution toujours confirmée jusqu’à présent.

Compte tenu de ces obstacles politiques, économiques et juridiques, il est hautement improbable que la taxe Zucman voie le jour en France sans un accord mondial – encore plus improbable – dans les prochaines années. Pour répondre à la demande croissante de réduction des inégalités tant patrimoniales que de revenus, un gouvernement minoritaire peut être tenté de rétablir le symbole fort qu’est l’ISF, mais cela ne résoudra en rien les deux défis les plus urgents de Bercy : la réduction du déficit et de la dette publique.

The Conversation

Éric Pichet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La taxe Zucman au défi des contraintes économiques et juridiques – https://theconversation.com/la-taxe-zucman-au-defi-des-contraintes-economiques-et-juridiques-266071

Quand la Deutsche Bahn déraille, faut-il craindre pour le rail français ?

Source: The Conversation – in French – By Mathis Navard, Docteur en Sciences de l’information et communication (ISI), Université de Poitiers, Université de Poitiers

Longtemps réputée pour sa fiabilité, la compagnie ferroviaire allemande Deustche Bahn connaît une crise historique : infrastructures obsolètes, ponctualité en chute libre, trains supprimés… Jamais nos voisins germaniques n’avaient connu une telle situation. La France doit elle aussi faire face à des défis similaires. Sommes-nous en train d’emprunter la même voie ?

Cet été, peut-être avez-vous pris le train en Allemagne pour vos vacances. Ou peut-être empruntez-vous le TGV reliant Paris à Strasbourg, qui accuse parfois jusqu’à 6 heures de retard ? Dans ces cas, il est probable que vous ayez subi des perturbations durant votre voyage sur le réseau de la Deutsche Bahn (DB), l’équivalent germanique de la SNCF.

L’Allemagne a beau disposer du plus important réseau européen avec 34 000 kilomètres de voies ferrées, la situation n’en est pas moins alarmante. « La Deutsche Bahn traverse sa plus grande crise depuis 30 ans », reconnaît sans détour le PDG de l’entreprise, Richard Lutz. L’homme est le premier à faire les frais de cette dégradation de service. Le 14 août, le ministre des Transports a fait connaître son intention de le limoger avant la fin de son contrat, évoquant une “situation dramatique”.

En effet, entre l’arrivée de M. Lutz en 2017 et son départ, la Deutsche Bahn a connu certaines de ses pires performances : la ponctualité des trains longue distance est tombée de 78,5 % à seulement 62,5 % en 2024, son plus bas niveau depuis la réforme ferroviaire qui a suivi la réunification. Le ministre allemand des Transports a annoncé, le lundi 22 septembre 2025, la nomination de Evelyn Palla pour le remplacer.

Que se passe-t-il chez nos voisins germaniques ? Pour le comprendre, il faut remonter trois décennies en arrière, dans le contexte de la réunification des deux Allemagnes.

La réunification des deux Allemagne, racine de la crise actuelle

À l’Est, le réseau est alors vétuste. À l’Ouest, il est surendetté. La réforme ferroviaire du rail allemand de 1994 assainit la situation financière – l’État fédéral éponge la dette colossale accumulée jusque-là (plus de 30 milliards d’euros de dettes) – et créée la DB. Son capital est détenu à 100 % par l’État. Il s’agit donc d’une entreprise publique dont le fonctionnement est calqué sur celui du secteur privé.

Mais quête de rentabilité et service public ne vont pas forcément de pair. D’un côté, les infrastructures ferroviaires ont été modernisées et le taux de ponctualité atteint 90 % dans les années 2000. Mais de l’autre, 5 400 kilomètres de ligne ont été fermés – soit un sixième du réseau – et une sombre histoire d’espionnage de salariés a fait couler beaucoup d’encre.

Parallèlement à cela, la réduction des coûts de maintenance et de personnel provoque des problèmes en cascade : les pannes se multiplient, au même titre que les retards et les annulations de trains.

L’État prévoyait de se désengager progressivement de la DB avec la privatisation au moins partielle comme objectif. Mais la crise financière de 2008 est venue interrompre ce processus. Pour ne rien arranger, les problèmes techniques s’accumulent. En 2009, la moitié des trains est supprimée en raison de leur vétusté. La DB doit verser des indemnités à l’État. Au même moment, Rüdiger Grube — ancien président du conseil d’administration du groupe aéronautique et spatial EADS — est nommé PDG de l’entreprise.

Infrastructures vétustes et ponctualité en chute libre

Cette crise n’est donc pas nouvelle, mais elle ne cesse de s’aggraver. En 2015, le plan Avenir du rail promettait déjà d’assainir la situation. Il n’aura pas été suffisant.

L’Allemagne, jadis réputée pour sa ponctualité, n’a eu que 62,5 % de ses trains longue distance à l’heure en 2024, soit une baisse de 1,5 % par rapport à 2023. Et c’est sans compter sur les nombreuses annulations et pannes, en forte hausse en raison de l’absence d’actions préventives et de solutions de remplacement. Pour améliorer les statistiques, il est d’ailleurs devenu plus commode de supprimer certaines circulations que de les déclarer en retard.

Le ministre fédéral des transports Patrick Schnieder (CDU) a fixé des objectifs forts en matière de ponctualité pour le trafic longue distance. D’ici fin 2029, elle devra atteindre au moins 70 %. L’objectif précédent prévoyait déjà ce taux pour 2026.

Trains supprimés en gare de Kassel-Wilhelmshöhe
Trains supprimés en gare de Kassel-Wilhelmshöhe (Hesse).
Fabian318, CC BY-SA

La direction de la DB met en avant la vétusté des infrastructures ferroviaires pour expliquer ces aléas. Cela n’est pas sans conséquence sur les pays voisins. Outre les difficultés rencontrées par les voyageurs du TGV Paris-Strasbourg, les chemins de fer fédéraux (CFF) suisses refusent désormais dans leurs gares tous les trains allemands ayant plus de 15 minutes de retard afin de maintenir leur légendaire ponctualité. Un système de navette géré par les CFF est alors mis en place.

Aide du fédéral et cure d’austérité

Sans surprise, les comptes de la DB ne sont pas bons. En 2024, l’entreprise a enregistré une perte de 1,8 milliard d’euros. Une amélioration d’un milliard d’euros par rapport à 2023 qui vient tout de même alimenter une conséquente dette de 32,6 milliards d’euros.

Seule note d’espoir, la fréquentation – principale source de revenus de la compagnie – a augmenté de 5,9 % l’an passé sur les trains régionaux. Cela s’explique en partie par le succès du Deutschlandticket qui permet de voyager en illimité sur ce réseau pour 58€ par mois. Le fret, quant à lui, recule de 3,2 %.

Face à l’ampleur du problème, la planche de salut ne peut venir que de l’État fédéral. Cela tombe bien. Un plan d’investissement national pour les transports de 500 milliards d’euros sur 12 ans vient d’être adopté par le parlement allemand.

D’ici à 2027, 45 milliards d’euros seront dédiés aux infrastructures ferroviaires, via un fonds notamment alimenté par une taxe sur les poids lourds. Nous restons cependant encore loin des 150 milliards d’investissements nécessaires estimés par l’actuel PDG de la DB.

L’entreprise a elle aussi décidé de faire sa part. Tout d’abord en recentrant ses activités sur le ferroviaire. En septembre dernier, elle a cédé pour 14,3 milliards d’euros le géant de la logistique Schenker. Il en a été de même pour l’entreprise européenne de transport public DB Arriva, marquant ainsi un coup d’arrêt à son internalisation.

En interne, 10 000 postes — essentiellement administratifs — devraient être supprimés d’ici 3 ans. Une filiale non lucrative intitulée DB InfraGO a également vu le jour pour moderniser le réseau ferroviaire et les gares. En 2024, durant sa première année de fonctionnement, 18,2 milliards d’euros ont été investis. Pour la première fois, le vieillissement des installations a pu être arrêté.

Une modernisation à marche forcée

Le bond est spectaculaire. L’Allemagne est passée de 115 euros par habitant dépensés en 2023 pour l’investissement dans le ferroviaire à 198 euros en 2024. Dans le même temps, la France a progressé de 51 euros par habitant à… 65 euros.

Et cela n’est sans doute qu’un début. Il y a quelques mois, la DB a adopté un vaste plan de rénovation des rails, des gares et des ponts. Il faut dire que le défi est immense, à une époque où le train doit lui aussi faire face aux conséquences de plus en plus importantes du changement climatique.

L’accident mortel survenu le 27 juillet dernier sur une petite ligne régionale du Bade-Wurtemberg, causé par un glissement de terrain, l’a tragiquement rappelé.

La France, prochaine sur la liste ?

La situation du ferroviaire allemand fait réagir dans de nombreux pays européens. À commencer par notre pays. Le PDG de la SNCF Jean-Pierre Farandou a d’ailleurs déclaré que la France pourrait suivre la même trajectoire si aucun moyen financier supplémentaire n’était alloué.

Certains indicateurs tricolores sont particulièrement inquiétants. C’est le cas par exemple de l’âge moyen de notre réseau ferré qui est âgé de 30 ans, contre 17 ans chez nos voisins germaniques. Cette situation est le fruit de choix politiques court-termistes qui ont conduit à prioriser le tout-TGV au détriment des lignes dites de “desserte fine du territoire”.

Des petites lignes qui – aujourd’hui encore – continuent de fermer, à rebours des injonctions climatiques à accélérer le report modal vers le ferroviaire et les autres solutions de mobilité bas carbone. Le 31 août dernier et après cent quarante-trois ans d’activité, la gare de Felletin accueillait son dernier TER en raison de la « suspension » de la ligne qui reliait la commune creusoise à son chef-lieu, Guéret. Une décision aussi forte que symbolique qui illustre concrètement le recul des services publics en milieu rural, nourrissant un sentiment d’abandon auprès de la population locale.

Parviendrons-nous à mettre fin à cette dynamique mortifère pour notre réseau ferré et notre territoire ? Avec un bénéfice record de 1,6 milliard d’euros en 2024 et une fréquentation en hausse pour la SNCF, il est encore temps d’agir. La réponse dépendra grandement des orientations décidées par la puissance publique.

Dans ses conclusions, la conférence de financement sur l’avenir des mobilités « Ambition France Transports » indique prévoir d’ajouter annuellement 1,5 milliard d’euros à compter de 2028 en faveur du ferroviaire. Un premier pas vers la bonne direction, mais qui doit en appeler d’autres si nous voulons éviter un scénario à l’allemande.

The Conversation

Mathis Navard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand la Deutsche Bahn déraille, faut-il craindre pour le rail français ? – https://theconversation.com/quand-la-deutsche-bahn-deraille-faut-il-craindre-pour-le-rail-francais-264703

La vengeance, de la Grèce Antique à Gaza : un levier pour construire une paix juste ?

Source: The Conversation – France in French (3) – By Marie Robin, Maitresse de conférences à l’Institute of security and global affairs (ISGA), Université de Leiden, Leiden University; Université Paris-Panthéon-Assas

_La Justice et la Vengeance divine poursuivant le Crime_ (1808), du peinte français Pierre Prudon, dit Pierre-Paul Prud’hon (1758-1823). Pierre-Paul Prud’hon/WikiArt

Puissances étatiques, membres de groupes ethniques ayant été décimés, fanatiques religieux, mouvements terroristes… autant d’acteurs variés qui, tout au long de l’histoire, ont invoqué la vengeance pour expliquer leurs actes violents – des actes qui, à leurs yeux, en portant rétribution des torts qui leur avaient été infligés, devaient permettre, au final, d’aboutir à une paix juste. Dans la Vengeance et la Paix, qui vient de paraître aux éditions du CNRS, Marie Robin, maîtresse de conférences à l’Institute of security and global affairs (ISGA) à l’Université de Leiden (Pays-Bas) et chercheuse associée au Centre Thucydide (Paris II), explore, à travers plusieurs épisodes marquants de l’histoire mondiale, les liens complexes tissés entre le motif de la vengeance et l’établissement de la paix.


Mytilène en 428 av. J.-C.

Alors que la guerre du Péloponnèse fait rage, la ville de Mytilène sur l’île grecque de Lesbos craint d’avoir attiré la convoitise des Athéniens. Redoutant une attaque, les principaux dignitaires de la ville décident de rassembler quelques troupes parmi la population pour contrer l’assaut potentiel. Mais, par une forme de prophétie auto-réalisatrice et face au risque perçu de soulèvement représenté par la levée de troupes, Athènes répond par un blocus naval de l’île, assiégeant la ville. Acculés, les habitants de Mytilène se rendent rapidement aux Athéniens. L’Assemblée des Athéniens doit alors déterminer le sort des habitants de la ville défaite.

Le jour même du soulèvement, les membres de l’Assemblée athénienne prennent la décision de massacrer l’ensemble des hommes de Mytilène et de réduire les femmes et les enfants en esclavage. L’ordre d’exécuter la décision est transmis.

Le jour suivant, cependant, l’Assemblée est prise de remords. Elle s’interroge sur l’équanimité d’un jugement visant à condamner toute une île pour les péchés de quelques-uns de ses habitants. Le débat, restitué par l’historien grec Thucydide, oppose alors Cléon, homme politique athénien, qui demande à l’Assemblée de poursuivre avec le jugement initial, à Diodote, citoyen athénien, qui lui conseille plutôt d’agir avec prudence et de punir uniquement les coupables sans se venger des autres habitants.

Un vote final a lieu : l’Assemblée suit finalement Diodote en décidant d’éliminer seulement les mille dirigeants de la révolte et d’épargner le reste de l’île, posant une limite et un cadre à la vengeance des Athéniens.

Washington, le 2 mai 2011

Le 2 mai 2011, le président américain Barack Obama s’exprime devant les télévisions américaines et du monde entier pour annoncer l’élimination, la nuit précédente, de l’ancien dirigeant d’Al-Qaida Oussama Ben Laden par une équipe américaine des Navy SEALs à Abbottabad, au Pakistan.

Annonçant que, désormais, la « justice a été rendue » (Justice has been delivered), le président américain rappelle dans son discours les nombreuses victimes ayant péri des suites des actions d’Oussama Ben Laden, « un terroriste responsable du meurtre de milliers d’innocents », le 11 septembre 2001 notamment.

Le président Obama déclare par exemple :

« Il y a près de dix ans, une belle journée de septembre a été assombrie par le pire attentat de notre histoire contre le peuple américain. Les images du 11 Septembre sont gravées dans notre mémoire nationale : des avions détournés traversant un ciel de septembre sans nuages, les tours jumelles s’effondrant sur le sol, la fumée noire s’élevant du Pentagone, l’épave du vol 93 à Shanksville, en Pennsylvanie, où l’action de citoyens héroïques a permis d’épargner encore plus de chagrin et de destruction […]. Le 11 septembre 2001, en cette période de deuil, le peuple américain s’est uni […]. Nous étions également unis dans notre détermination à protéger notre nation et à traduire en justice les auteurs de cette attaque odieuse. »

Le lendemain, le quotidien New York Post titre sur l’élimination de l’ancien dirigeant : « Osama bin Laden Dead : Got Him, Vengeance at Last ! The U.S. Nails the Bastard (Traduction : « Oussama Ben Laden est mort : la vengeance enfin ! Les États-Unis épinglent le bâtard. »). »

Paris, le 7 janvier 2015

Le 7 janvier 2015, dans le XIe arrondissement de Paris, deux frères, Chérif et Saïd Kouachi, pénètrent dans les locaux du journal satirique Charlie Hebdo et y assassinent douze personnes, dessinateurs, journalistes, membres de la rédaction et policiers, en blessant aussi quatre autres.

Anciens de la filière dite des Buttes-Chaumont et adeptes des cours de Farid Benyettou, jeune prédicateur incitant des jeunes à partir en Irak, les deux frères se seraient radicalisés au contact de l’islamiste Djamel Beghal, rencontré par Chérif Kouachi au centre pénitentiaire de Fleury Mérogis, où Beghal était incarcéré pour avoir fomenté un projet d’attentat contre l’ambassade des États-Unis à Paris en juillet 2001.

En janvier 2015, alors que Saïd et Chérif Kouachi sortent des locaux du journal après leur attaque, ils prennent le risque de s’exposer à une arrestation plutôt que de fuir immédiatement les lieux, pour crier dans les rues de la capitale : « On a vengé le Prophète ! »

Gaza, le 7 octobre 2023

Le 7 octobre 2023, l’organisation palestinienne Hamas mène une attaque surprise en Israël, tuant plus de 1 200 personnes et prenant plusieurs centaines d’otages. Le même jour, le premier ministre conservateur israélien Benyamin Nétanyahou déclare lors d’une conférence de presse qu’Israël « prendra une puissante vengeance », annonçant :

« Nous les paralyserons sans pitié et nous vengerons ce jour noir qu’ils ont infligé à Israël et à ses citoyens. »

Au moment d’écrire ces lignes, le bilan établi par l’Unicef fait état d’au moins 1 200 morts, dont 37 enfants, et de plus de 7 500 blessés en Israël ; 59 personnes sont encore retenues en otage. Dans la bande de Gaza, 51 266 personnes, dont plus de 15 600 enfants, seraient décédées. 116 991 personnes y auraient été blessées, dont 34 000 enfants. Les femmes et les enfants représenteraient, toujours selon l’Unicef, 70 % des victimes de la riposte israélienne. Les habitants de Gaza sont privés d’eau, de nourriture et d’électricité. Plus de 11 200 personnes sont en outre portées disparues et se trouveraient probablement sous les décombres.

Au Liban, les opérations menées par Israël dans ce qu’il a qualifié de vengeance contre le Hezbollah auraient causé la mort de 3 500 personnes et fait 15 000 blessés, en particulier depuis la mi-septembre 2024. Au Liban, 878 000 personnes ont en outre été déplacées par les violences.


Que nous apprennent les quatre épisodes ici présentés ? D’une part, que la vengeance, le sujet de ce livre, a été et continue d’être mobilisée dans les offensives d’acteurs internationaux quels qu’ils soient, en tant que moteur de leur violence. Les modalités, cadres d’expression et d’application de la violence sur la scène internationale restent déterminés, au moins partiellement, par la vengeance.

Mais ce n’est pas là la seule leçon. D’autre part en effet, la vengeance semble être revendiquée publiquement par les acteurs eux-mêmes, non seulement pour expliquer mais aussi pour légitimer les actions qu’ils mènent : terrorisme mais aussi contre-terrorisme, conflit armé, violence en retour. La vengeance est alors présentée comme un droit, voire comme un devoir, par certains des acteurs qui la mettent en œuvre. Réponse à l’offense, elle est exhibée comme un comportement nécessaire pour le maintien d’une réputation, d’un statut privé, voire pour la stabilité de l’ordre international.

Cette deuxième observation peut surprendre, car elle entre en tension avec la disqualification normative dont la vengeance fait l’objet dans la modernité. Souvent décrite comme une passion archaïque, triste et barbare, la vengeance est traditionnellement rejetée en raison de l’escalade de violence qu’elle nourrit, pour son caractère passionnel et incontrôlable, pour l’entrave à la paix qu’elle constitue. Un paradoxe émerge donc : pourquoi, alors même qu’elle semble souffrir d’une connotation négative, la vengeance est-elle revendiquée et vue comme une justification légitime de leurs actions internationales par certains acteurs, y compris par des acteurs se réclamant de valeurs libérales ?

Ce paradoxe révèle une ambivalence plus profonde : celle de la vengeance comme obstacle à la paix, mais aussi comme ressort possible d’une paix juste. Paul Ricœur voit ainsi dans la vengeance un obstacle à la « paix sociale » qui devrait être remplacée par la justice institutionnelle, c’est à-dire par la confiscation de la « prétention de l’individu à se faire justice lui-même ». Mais à l’inverse, la vengeance serait utile à une paix juste, puisque, selon Aristote, « rendre la pareille est juste ». La vengeance devient ainsi « le fait d’une vertu », car elle vise une forme de rééquilibrage moral : « Il faut rendre à chacun ce qui lui appartient. »

C’est cette ambivalence – celle d’un comportement disqualifié mais malgré tout revendiqué par des acteurs y compris légitimes ; celle d’un obstacle à la paix mais néanmoins essentiel à l’établissement d’une paix juste – qui rend la vengeance particulièrement utile pour penser la paix en relations internationales. Suivant l’anthropologue Raymond Verdier, la vengeance est peut-être à la fois « une vertu, quand elle défend la dignité de la personne, et un vice, quand elle devient passion de détruire ». La vengeance peut donc jouer un rôle dans le recours à la violence, générant escalades et maintien des conflits, mais elle peut aussi être, dans certaines circonstances, appréhendée comme un mécanisme revendiqué comme légitime, y compris pour la paix.

Dès lors, quel rôle joue la vengeance dans l’établissement de la paix entendue dans le sens de paix positive, comme absence de violence structurelle issue de la violence de la société ? Est-il possible, dans nos conflits contemporains notamment, de mieux appréhender la vengeance pour en faire un ressort de la paix ?

In fine, peut-on véritablement et simplement évacuer la vengeance pour parvenir à la paix ? Ce livre interroge donc, à la lumière de conflits contemporains (Gaza, Ukraine, Soudan, djihadisme), le lien entre vengeance et construction de la paix.

L’enjeu est important : les discours et mécanismes de résolution des conflits tendent en effet à réduire la vengeance à sa dimension de vice, comme un mécanisme illégitime qu’il faut nécessairement évacuer pour promouvoir la paix. Ce faisant, ils en font un tabou, un interdit, largement exclu des réflexions et dialogues sur la réconciliation, alors même que les acteurs eux-mêmes, sur le terrain, la revendiquent parfois comme une démarche moralement et politiquement fondée.

L’hypothèse que nous défendons est donc la suivante : reléguer la vengeance au rang de simple vice est probablement contreproductif pour la paix. Pour sortir durablement de la violence, il est nécessaire de comprendre quand, comment et par qui la vengeance est présentée comme légitime. Si les actes de vengeance doivent êtres empêchés pour permettre la paix, les revendications de vengeance, elles, méritent d’être entendues et analysées. Elles constituent un matériau essentiel pour penser la justice, la réparation, et in fine, la paix.

The Conversation

Marie Robin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La vengeance, de la Grèce Antique à Gaza : un levier pour construire une paix juste ? – https://theconversation.com/la-vengeance-de-la-grece-antique-a-gaza-un-levier-pour-construire-une-paix-juste-265432

Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ?

Source: The Conversation – France in French (3) – By Jean-Pierre Darnis, Full professor at the University of Côte d’Azur, director of the master’s programme in “France-Italy Relations”. Associate fellow at the Foundation for Strategic Research (FRS, Paris) and adjunct professor at LUISS University (Rome), Université Côte d’Azur

La stabilité politique et économique de l’Italie depuis l’arrivée au pouvoir en 2022 de Giorgia Meloni incite certains observateurs français à affirmer que sa gouvernance démontre la capacité d’un parti de droite radicale à gérer correctement un grand État d’Europe – ce qui devrait rassurer tous ceux qui redoutent une éventuelle victoire du Rassemblement national en France. Pourtant, quand on y regarde de plus près, les cas de Fratelli d’Italia et du RN sont très dissemblables, le parti italien ayant déjà eu, avant que sa cheffe n’accède aux plus hautes responsabilités, une longue habitude de participer à des coalitions gouvernementales. Et sa politique ne se place pas vraiment en rupture avec celles des gouvernements précédents. En réalité, s’il y a des leçons à tirer du cas italien, elles ont trait moins à l’action de Giorgia Meloni qu’à certaines spécificités d’un système parlementaire pourtant longtemps décrié de ce côté-ci des Alpes.


La crise politique française suscite des comparaisons fréquentes avec le cas italien. Alors que la France est entrée depuis 2024 dans un profond cycle d’instabilité politique, l’Italie, par contraste, semble remarquablement stable.

Le 18 septembre dernier, pour la première fois, le taux d’intérêt exigé par les investisseurs pour détenir de la dette publique italienne s’est établi au même niveau que celui requis pour la dette publique française – une convergence qui traduit l’appréciation que font les marchés de la situation budgétaire et politique italienne par rapport au cas français.

La mise en perspective des deux pays conduit certains analystes à exprimer des jugements favorables à l’égard du gouvernement Meloni, présenté comme un garant de stabilité.

Tout d’abord il s’agit de vanter la stabilité politique et budgétaire italienne par rapport à l’instabilité française et à la tendance de la France à accumuler les déficits. Ensuite, le cas italien sert de prétexte à une légitimation de l’extrême droite dans son exercice du pouvoir : le succès de Giorgia Meloni démontrerait qu’un parti extrémiste pouvait évoluer et se transformer en force efficace de gouvernement.

Meloni, héritière d’une longue lignée de coalitions entre centre droit et droite radicale

Ces deux analyses apparaissent à bien des égards relever de projections des visions françaises sur la réalité italienne, plutôt que de véritables prises en compte des dynamiques à l’œuvre dans la péninsule.

Si nous nous intéressons à la trajectoire de la famille politique de Giorgia Meloni, on observe que c’est en janvier 1995 que le Movimento Sociale Italiano (MSI-DN), créé en 1946 sur une ligne clairement post-fasciste, prend un virage modéré et gouvernemental avec sa transformation en Alleanza Nazionale.

Ce tournant intervient dans un contexte où des coalitions de droite mises en place à partir de 1994 voient s’associer le parti de centre droit créé par Silvio Berlusconi, Forza Italia, avec les autonomistes septentrionaux de la Lega d’Umberto Bossi et la droite nationaliste réformée dirigée par Gianfranco Fini.

Pendant les trente années suivantes, on verra la droite italienne solidifier ses réflexes de coalition tripartite mais aussi se mouler dans le jeu institutionnel et parlementaire : Giorgia Meloni est à la fois l’héritière de Silvio Berlusconi lorsqu’elle récupère le leadership sur ce camp lors des élections de 2022, mais aussi le produit d’une culture parlementaire et gouvernementale, car elle a été ministre de 2008 à 2011.

Elle est donc la nouvelle leader d’un camp qui a été façonné par les neuf années de pouvoir exercé sous la direction de Silvio Berlusconi. Certes, son discours conserve des accents nationalistes et conservateurs, en particulier lors de la campagne électorale de 2022, mais la continuité du substrat institutionnel de sa famille politique est un élément fondamental, largement sous-évalué par les commentateurs.

L’accession au pouvoir de Giorgia Meloni représente un renouvellement au sein de la droite italienne car elle conquiert en 2022 le sceptre d’un Silvio Berlusconi diminué (il décédera quelques mois plus tard), mais ne constitue pas une rupture extrémiste.




À lire aussi :
Italie : Silvio Berlusconi, ou la « révolution libérale » qui n’a jamais eu lieu


La coalition tripartite qu’elle met en place en 2022 est la même que celle qui avait été inventée par Silvio Berlusconi en 1994. Ainsi ne faut-il pas s’étonner des éléments de continuité que l’on constate dans la pratique gouvernementale de la droite italienne depuis Berlusconi jusqu’à Meloni.

Quant à l’affirmation selon laquelle la droite italienne aurait récemment vécu une sorte de déradicalisation, elle doit être fortement nuancée : on a assisté depuis 2013 à un durcissement de la Lega de Matteo Salvini, qui a redéveloppé un discours à la fois hostile à l’immigration et pro-russe. Il y a donc des effets de vases communicants à la fois en ce qui concerne les électorats et l’idéologie des différents partis de droite en Italie.

La continuité dans les actions de gouvernement constitue également la toile de fond d’une politique budgétaire prudente. Ici encore, il ne s’agit pas d’une nouveauté, car la politique de sérieux budgétaire est relativement traditionnelle en Italie. Elle avait déjà été observée sous le gouvernement précédent, celui de Mario Draghi.

En matière budgétaire, il convient de relever que l’un des principaux points noirs de la finance publique italienne a été la politique dite du « superbonus » pour les rénovations immobilières, un système de subventions créé par le gouvernement Conte II en 2020, qui a coûté plus de 127 milliards d’euros.

L’efficacité économique de cette dépense concentrée dans l’immobilier est largement critiquée et l’une des actions les plus remarquables du gouvernement Meloni a été d’arrêter l’hémorragie que la procrastination des mesures entraînait pour les finances publiques en modifiant la réglementation de l’allocation de subventions. Mais, dans le même temps, le gouvernement italien peine à dépenser les budgets obtenus dans le cadre du plan de relance européen (PNRR) – un indicateur négatif en matière d’efficacité qui est bien loin de représenter un « miracle ».

Enfin il faut relever que les finances publiques italiennes bénéficient de l’inflation, qui provoque une hausse des revenus et, donc, un effet seuil d’augmentation des recettes fiscales par le jeu du dépassement des tranches d’imposition.

En Italie, une habitude bien ancrée de création de coalitions

Les institutions italiennes sont caractérisées par leurs capacités d’adaptation – un facteur qui différencie profondément l’Italie de la France.

En 2018, les élections législatives italiennes n’ont pas permis de dégager une majorité, l’électorat s’étant réparti de façon relativement équilibrée entre la droite, la gauche et le Mouvement 5 étoiles. Après des semaines de tractations et d’errements, c’est finalement un accord original entre le Mouvement 5 étoiles et la Lega qui allait permettre la naissance de l’exécutif dirigé par Giuseppe Conte. Cette formule mettait en place un exécutif populiste qui s’est rapidement distingué par des mesures de dépenses (mise en place d’un revenu de citoyenneté), une position virulente en matière d’immigration mais aussi par une politique internationale marquée par les réflexes pro-russes et pro-chinois, ainsi que par une crise des rapports bilatéraux avec la France.

Face à cette poussée populiste, le jeu parlementaire d’une part et la fonction de garant exercée par le président de la Republique Sergio Mattarella de l’autre ont contribué non seulement à mitiger la portée des actions extrémistes, mais aussi à contribuer en 2019 à la mutation de la coalition de soutien du gouvernement Conte 2, qui associera le Mouvement 5 étoiles à la gauche classique en excluant la Lega, ce qui relancera une dimension bipolaire gauche/droite.

Cet exemple récent montre comment dans un système comme celui de l’Italie, caractérisé par l’absence de figure comparable à celle d’un président de la République française, se définit un jeu politique ouvert qui passe par la recherche de coalitions qui font des partis les acteurs centraux du jeu politique.

Certes, le président italien joue un rôle crucial lors des crises politiques, mais il apparaît comme un arbitre et non pas comme le chef d’un camp, ce qui lui permet d’exercer un rôle de médiation mais aussi de ne pas confondre ses missions avec celle du président du conseil des ministres, chef de l’exécutif.

La présidence de la République est une institution qui a repris en Italie certains traits de la monarchie constitutionnelle précédente, avec un rôle « au-dessus des partis » d’un président qui évite soigneusement de descendre dans la mêlée.

Les institutions de la république italienne, dont la Constitution a été adoptée en 1947, ne sont pas sans rappeler celles de la IVe république française. La comparaison entre l’Italie et la France permet de pointer du doigt le phénomène d’hyper-présidentialisation à l’œuvre en France, en particulier depuis la réforme constitutionnelle de 2000, une caractéristique qui apparaît comme un blocage dans un Parlement qui n’est plus bipolaire.

Pas de modèle Meloni, mais un modèle italien ?

L’exemple italien n’est pas celui d’une modération miraculeuse et récente d’une droite extrémiste sous l’effet d’une supposée « méthode Meloni ». Silvio Berlusconi a écrit l’histoire d’une droite italienne qui est d’abord passée par une hégémonie sur le centre avant d’arriver à un repositionnement des différentes forces politiques, un parcours dont Giorgia Meloni est l’héritière. Il ne s’agit donc pas d’un scénario que l’on puisse plaquer sur la trajectoire du Rassemblement national français.

En revanche, l’observation des institutions italiennes est riche d’enseignements, en faisant voir la possibilité d’un système sans président de la République à la française – une caractéristique qui est d’ailleurs commune à la majorité des pays membres de l’Union européenne. Ici encore, ce n’est probablement pas l’analyse de ceux qui à Paris voudraient voir dans Giorgia Meloni l’exemple d’un césarisme triomphant. Mais c’est la véritable leçon, parlementaire et démocratique, que l’Italie peut enseigner.

The Conversation

Jean-Pierre Darnis ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Face à sa crise politique, la France a-t-elle des leçons à tirer de l’Italie ? – https://theconversation.com/face-a-sa-crise-politique-la-france-a-t-elle-des-lecons-a-tirer-de-litalie-265831

De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ?

Source: The Conversation – France (in French) – By Eric Bruillard, Enseignant-chercheur, Université Paris Cité

Comme Wikipédia auparavant, les outils d’intelligence artificielle générative sont sujets à une méconnaissance et à des préjugés chez les élèves et les étudiants, voire chez les enseignants. Comment les aider à mieux comprendre le fonctionnement de ces outils numériques et éviter l’anthropomorphisme ? L’usage de métaphores serait-il une piste fructueuse ?


Beaucoup de discours actuels sur l’utilisation des intelligences artificielles génératives (IAG) en éducation sont similaires à ceux qui ont longtemps accompagné l’utilisation de Wikipédia.

D’abord, le manque de confiance que l’on peut leur accorder, accompagné d’un recensement d’erreurs que l’on a pu trouver ici et là. Ensuite, une accusation de paresse à l’encontre d’utilisateurs en faisant une utilisation abusive sans réécriture ni vérification. Enfin, un dénigrement diversement fondé sur leur qualité et une volonté initiale d’interdire leur utilisation, reposant en fait sur le problème, pas toujours bien énoncé, que leur utilisation remet en question les travaux et évaluations demandés aux élèves.




À lire aussi :
L’IA peut-elle nous dispenser de l’effort d’apprendre ?


Les similarités énoncées cachent cependant des différences importantes entre Wikipédia et les IAG, notamment dans la compréhension ou l’incompréhension de leur fonctionnement et des implications de cette méconnaissance. Pourtant, la circulation de métaphores, tant pour Wikipédia que pour les IAG, peut faciliter des utilisations plus diversifiées et plus intéressantes.

Wikipédia : des étudiants très ignorants de son fonctionnement

J’interroge depuis une vingtaine d’années les étudiants de master sur leurs connaissances de Wikipédia et leurs utilisations. Pour la plupart d’entre eux, les principes fondateurs du projet, pourtant seulement au nombre de cinq – encyclopédisme, neutralité de point de vue, licence libre, savoir-vivre communautaire et souplesse des règles – sont totalement inconnus. Pire, les possibilités visibles dans l’interface standard, comme langues, historique, discussion, n’ont jamais été repérées.

Utilisateurs pourtant réguliers, ils n’ont pas eu la curiosité d’aller explorer ce que pouvait leur offrir Wikipédia. Ils croient comprendre globalement comment cela marche, ce qui ne leur permet pas de développer des utilisations approfondies d’un projet encyclopédique multilingue qui donne à voir son processus collectif de rédaction.

Ils souscrivent à une sorte de maxime simpliste : « Tout le monde peut intervenir dans un article (sous-entendu n’importe qui, des personnes incultes ou malintentionnées), DONC cela ne peut pas être de bonne qualité. »

Comment réfuter une telle affirmation ? D’un point de vue théorique, elle est vraie, les contenus (enfin presque tous) peuvent être sans arrêt modifiés. Mais d’un point de vue pratique, rares sont les personnes qui adoptent un comportement destructeur, l’organisation de Wikipédia permettant de détecter rapidement les interventions « déplacées » (avec des systèmes d’alerte automatiques, des robots, etc.). Les articles sont en grande majorité stables et de bonne qualité. D’ailleurs, dès 2004, des études ont révélé que le taux d’erreur dans les articles de Wikipédia n’était pas plus élevé que dans les grandes encyclopédies.

Cette mauvaise connaissance a des conséquences dont veut se prémunir Wikipédia. Dans les avertissements généraux, elle précise qu’elle « ne garantit pas la validité, l’exactitude, l’exhaustivité, ni la pertinence des informations contenues sur son site ». Cela débouche sur une sorte de lieu commun pour l’utilisation : « Wikipédia doit être un point de départ pour la recherche, et non une destination, et il est conseillé de confirmer de manière indépendante tout fait présenté ». Sage conseil. Mais quand on demande aux étudiants s’ils le suivent, la réponse est… non.

IA génératives : un fonctionnement opaque et des hallucinations

Concernant l’intelligence artificielle, on est passé de l’IA comme champ scientifique aux IA, entités aux contours mal définis, susceptibles de produire rapidement des textes, images, vidéos, etc. Outils de productivité personnelle ou collective, leurs limites et préjudices sont connus et partagés :

  • Des biais constitutifs et des hallucinations : des documents du passé, des discriminations, des hallucinations (voir les fameuses mains à 6 doigts ou l’invention de fausses références), caractéristiques inhérentes à leur fonctionnement…

  • Une absence de compréhension : bien exprimée par la métaphore du perroquet stochastique, une illusion de compréhension renforcée par un discours dans un registre anthropomorphe, pas de contrôle global, défaut d’explicabilité (bien que cela s’améliore)…

  • Une qualité de réponses très variable qui peut dépendre du coût payé par l’utilisateur, ce qui interroge sur ce qui va se passer dans le futur, avec la nécessité de générer suffisamment d’énergie (problème écologique).

Apprendre à les utiliser est un objectif que l’école se doit d’assumer. Mais, comment ? Pour certains, il s’agit de montrer leur fonctionnement interne. Cela a été rarement fait pour Wikipédia, les utilisateurs croyant le savoir. C’est proposé pour les IAG. Toutefois, l’écart entre les descriptions internes, tentant d’expliquer comment un grand modèle de langage génère des séries de tokens, et les réalisations auxquelles les utilisateurs sont confrontés sont tellement éloignées que cela ne semble pas être une bonne solution.

Des métaphores pour interroger les usages numériques

Proposer des séries de métaphores permet de mieux saisir aussi bien certains principes de fonctionnement que les modalités d’utilisation des intelligences artificielles génératives. Cela peut aider aussi à résister à des processus d’anthropomorphisation qui peuvent s’avérer dangereux. Parler de « couteaux suisses », « perroquets stochastiques », « stagiaires ivres » ou « seigneurs suprêmes » conduit à des compréhensions différentes de l’interaction avec les IAG.

Concernant Wikipédia, on constate l’absence de métaphores répandues, sauf des références un peu générales comme « une cathédrale en perpétuelle construction ». Demander à ChatGPT quelles images il proposerait permet d’en trouver d’autres comme le « palimpseste numérique », « la plus grande encyclopédie du monde… écrite au crayon » ou « un canari dans la mine de charbon pour la confiance numérique ! » Certaines avec des explications qui rendent compte du fonctionnement de Wikipédia :

« Le génome vivant de la culture mondiale : une encyclopédie comme organisme vivant, évolutif et sensible à l’environnement.
Le théâtre d’ombres de la neutralité : critique subtile de la neutralité éditoriale, jamais parfaitement atteinte. »

Toutes ces métaphores aident à construire une vision plus intéressante et plus critique de Wikipédia. C’est aussi le cas pour les IAG. Ainsi, à l’invite d’illustrer par des métaphores des cas d’hallucination des IA génératives, ChatGPT, fait preuve d’une certaine poésie. Il évoque :

« un ornithologue qui confond des oiseaux rares avec des créatures mythologiques » ;

« un conteur qui invente des détails pour rendre son histoire plus captivante » ;

« un chirurgien qui opère avec des instruments mal calibrés, produisant des résultats inattendus ».

Notons toutefois que ChatGPT se décrit toujours comme un humain, qui a des intentions. Difficile d’échapper à l’anthropomorphisation ! Avec le même prompt, Claude.ia a généré une présentation sur Internet, synthèse non anthropomorphe et plus intéressante. Décaler l’interrogation des IAG peut permettre de mieux comprendre leur fonctionnement.

The Conversation

Eric Bruillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. De Wikipédia aux IA, comment aider les élèves à comprendre le fonctionnement des outils numériques ? – https://theconversation.com/de-wikipedia-aux-ia-comment-aider-les-eleves-a-comprendre-le-fonctionnement-des-outils-numeriques-265222