Source: The Conversation – France (in French) – By Catherine Mercier-Suissa, Professeure des Universités en sciences économiques, iaelyon School of Management – Université Jean Moulin Lyon 3
L’État déploie des moyens financiers importants pour inciter les entreprises à rapatrier leur production. Mais l’accès à ces dispositifs reste complexe, leur efficacité difficile à mesurer et leurs effets parfois ambivalents, entre soutien réel, effets d’aubaine et stratégies opportunistes.
Depuis la pandémie de Covid-19, la nécessité de reconquérir une base industrielle est devenue une priorité politique. Les relocalisations industrielles apparaissent alors comme une mesure phare de la réindustrialisation. Pour encourager cette mesure, l’État déploie massivement une panoplie d’aides : subventions, appels à projets, dispositifs comme France Relance ou France 2030, favorisant la relocalisation. À cela s’ajoute la commande publique, présentée comme un levier d’entraînement et de soutien de la production locale. Mais quel est le degré d’accessibilité et d’efficacité réelle de ces soutiens ?
Des aides publiques massives mais difficilement accessibles
Celles-ci sont devenues l’instrument central de la politique de relocalisation. Pourtant, leur efficacité est difficile à évaluer. D’abord parce qu’accéder à ces aides n’est pas si facile pour les entreprises, notamment pour les plus petites. Nombre de ces dernières dénoncent une gestion administrative trop complexe, qui freine la sollicitation et l’accès auxdites aides.
Ces aides font parfois l’objet d’un détournement d’utilisation. En effet, certaines entreprises « chasseuses de prime » utilisent les aides disponibles dans les territoires sans s’installer durablement. Certaines aides peuvent être acquises par l’entreprise a posteriori, une fois que la relocalisation a bien été effectuée mais cela s’apparente alors à un « effet d’aubaine » et non comme un élément déterminant de la relocalisation. Certaines entreprises n’utilisent pas ces aides comme un soutien déclencheur de la relocalisation de leur activité, mais plutôt comme un accompagnateur.
La commande publique : un levier sous-exploité et peu conditionné
La commande publique représente environ 8 % du PIB en France. Privilégier le « Fabriquer en France » pour les achats publics permet à l’État de soutenir nombre d’entreprises et ainsi de participer à la réindustrialisation du pays.
La société Fil Rouge en est un bon exemple. Entreprise dans le secteur du textile, elle a notamment pu bénéficier de cette commande publique lors des Jeux olympiques (JO) de Paris 2024. L’entreprise a honoré une commande de Paris 2024, en collaboration avec d’autres entreprises de la région Provence-Alpes-Côte d’Azur : c’est elle qui a produit 100 000 tee-shirts pour les volontaires des JO.
La SNCF a fait de même. La PME de Villefranche-sur-Saône, Cepovette Safety, spécialisée dans le vêtement de protection, va fournir près de 280 000 vêtements à l’entreprise ferroviaire. Auparavant, ces produits étaient fabriqués à base de coton venu d’Asie. Dorénavant, ces nouveaux vêtements sont confectionnés à partir de lin français, ce qui vient souligner l’engagement de la SNCF pour l’environnement et la réindustrialisation du territoire. Cette initiative est réalisée en collaboration avec Terre de lin, premier producteur de lin mondial en Normandie et Tenthorey, tisseur français dans le Grand Est.
De manière générale, la dépendance aux achats publics peut avoir de graves conséquences lorsque ceux-ci ralentissent. En 2024, Lucibel, entreprise spécialisée dans l’éclairage LED, en a fait les frais. Après des commandes régulières de la part des musées nationaux, ses principaux clients, pour leurs éclairages, tout a changé à l’approche des Jeux olympiques. Les subventions dont bénéficiaient les musées auraient été redirigées vers les JO, et les achats de la part des musées ont cessé cette même année pour Lucibel et ses éclairages LED.
Bien que les achats publics puissent jouer un rôle indéniable pour certaines entreprises, le recours à la commande publique comme outil de politique industrielle reste en grande partie marginal et encore à construire. L’ancien ministre Arnaud Montebourg met notamment en lumière une fragmentation des acheteurs publics entre les différents niveaux de collectivités. Il souligne la différence du nombre d’acheteurs publics avec l’Allemagne : 120 000 acheteurs publics en France, contre seulement 3 000 en Allemagne.
Centraliser les acheteurs publics et mettre en place une stratégie commune d’achat semble alors nécessaire, mais difficile à réaliser en France sans volonté politique, pour faire de la commande publique un véritable levier de la relocalisation.
Quelle stratégie industrielle derrière les outils ?
Au fond, la faiblesse principale de l’action publique réside moins dans ses moyens que dans leur mise en œuvre. L’État, comme les entreprises, peut prendre des dispositions afin de renforcer son efficacité.
Pour les entreprises, mettre en place une veille stratégique et intégrer les aides publiques en amont du projet permettraient de mieux les mobiliser lors d’une stratégie de relocalisation. Du côté des pouvoirs publics, simplifier l’accès aux aides et s’adapter aux besoins réels du terrain faciliteraient la coordination entre les pouvoirs publics et les entreprises, en répondant clairement à leurs besoins.
De plus, la mise en place d’un suivi des activités de l’entreprise qui prendrait en compte le taux de maintien de l’activité, le nombre d’emplois créés, la contribution à l’écosystème local, etc., reste encore marginale mais gagnerait à être implémentée à grande échelle. Sans aperçu concret des résultats, il reste compliqué d’évaluer le ciblage et l’efficacité des soutiens publics.
Les auteurs remercient Léa Peyriere (IAE Lyon) pour sa contribution à l’article.
Catherine Mercier-Suissa a reçu des financements de l’iaelyon pour ses travaux de recherche sur les relocalisations.
Daniel Suissa ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Il y a dix ans, les pays d’Afrique de l’Ouest ont mis en place un mécanisme unique de surveillance commerciale. Son objectif était de suivre le commerce intra-régional des produits agricoles et du bétail dans la région. Mais le système a été arrêté en 2022 en raison du manque de financement de la part des organisations régionales.
Ce mécanisme fournissait aux pays d’Afrique de l’Ouest des données provenant de plus de 320 marchés et de 10 corridors, permettant ainsi de suivre non seulement les tendances commerciales, mais aussi le bétail et les zoonoses.
L’absence de données commerciales actualisées a de nombreuses répercussions. Des données détaillées sur le commerce intra-régional sont essentielles pour aider à évaluer l’impact des chocs externes qui peuvent affecter de manière significative la sécurité alimentaire et le développement économique. Il s’agit notamment des crises politiques, des phénomènes météorologiques extrêmes, de la dévaluation monétaire ou des épidémies.
Des données fiables sont également essentielles pour cartographier les réseaux commerciaux. Elles renforcent les systèmes d’information sur les marchés et les dispositifs de surveillance sanitaire. Ceux-ci dépendent étroitement de la circulation des biens, des personnes, du bétail et des capitaux dans la région.
Ces éléments sont essentiels pour améliorer les systèmes d’information sur les marchés et la surveillance des maladies, qui dépendent tous deux fortement de la circulation des biens, des personnes, du bétail et des capitaux dans la région.
Les chercheurs ont conclu que les organismes régionaux devraient soutenir la reprise de la collecte de données commerciales. Ils devraient également favoriser le dialogue avec les offices nationaux de statistique et d’autres institutions nationales qui ont de l’expérience dans la collecte de données sur le commerce alimentaire régional informel afin d’élaborer une approche statistique régionale cohérente.
Une base de données unique sur l’économie régionale
Notre analyse des données commerciales suggère que les marchés frontaliers jouent un rôle clé dans le commerce du bétail et qu’une grande partie des mouvements sont transfrontaliers.
Cette forte mobilité facilite la propagation des maladies animales et [zoonotiques][https://onlinelibrary.wiley.com/doi/10.1155/2023/1880493]. Il s’agit notamment de la fièvre de la vallée du Rift, de la fièvre hémorragique de Crimée-Congo, de la fièvre aphteuse et de la peste des petits ruminants. Fin septembre 2025, par exemple, une nouvelle épidémie de fièvre de la vallée du Rift a été observée en Mauritanie et au Sénégal. Ces deux pays d’Afrique de l’Ouest
sont étroitement liés par les échanges de bétail.
Ces données étaient particulièrement adaptées à l’analyse des denrées alimentaires et du bétail produits localement au niveau régional. En effet, elles intégraient à la fois le commerce formel et informel, deux types de commerce très répandus dans toute la région. Nos travaux récents estiment que les activités informelles pourraient atteindre 85 % du commerce total, soit 10 milliards de dollars américains. Ce chiffre est six fois plus élevé que celui présenté dans les statistiques officielles.
Combler le déficit statistique
L’expérience de ces dernières années et la nature transnationale des flux commerciaux suggèrent une mesure clé. Il s’agit de confier la collecte des données à des institutions régionales plutôt qu’à des donateurs bilatéraux.
De 2017 à 2019, l’Agence des États-Unis pour le développement international (USAID) a financé la création de la base de données via son Bureau régional agriculture pour l’Afrique de l’Ouest. Les données ont finalement été intégrées à la base de données sur le commerce transfrontalier informel de la CEDEAO. Celle-ci a été développée afin de surveiller le commerce transfrontalier informel dans la région en 2019.
Le programme de l’USAID a pris fin en 2019. Par la suite, la collecte de données a été transférée au projet « Agriculture familiale, marchés régionaux et corridors commerciaux transfrontaliers au Sahel ». Lancé en 2020, ce projet avait pour objectif de développer un moyen durable et autofinancé de collecter des données fiables sur le commerce agricole et alimentaire en Afrique de l’Ouest.
Le financement de ces activités a été assuré par le Fonds international de développement agricole (FIDA). Il a été géré localement par l’Association ouest-africaine pour le commerce transfrontalier des produits agroforestiers, pastoraux et halieutiques, basée au Togo.
Cette initiative, qui couvrait 17 pays, a malheureusement pris fin en 2022 (produits agricoles) et 2024 (bétail).
La cessation de ce financement a eu des effets désastreux. Elle a profondément affecté la capacité des chercheurs à mesurer l’impact des changements structurels et politiques qui touchent la région. Par exemple, il est toujours impossible de mesurer dans quelle mesure la fermeture de certaines frontières à la suite des coups d’État successifs au Mali, au Burkina Faso et au Niger ces dernières années a affecté les réseaux commerciaux reliant le Sahel au golfe de Guinée.
De meilleures données pour surveiller le commerce et les maladies animales
Il faut un système permanent pour collecter des données. Ce système doit être soutenu par des associations locales. Ces informations sont indispensables et renforceront l’économie et la santé dans la région.
Le Code sanitaire de l’Organisation mondiale de la santé animale le recommande : il faut centraliser les données sur les déplacements du bétail. C’est la première étape à suivre. C’est la meilleure méthode pour empêcher la propagation transnationale des maladies entre les pays.
Une collecte de données précise, rapide et centralisée pourrait aider à identifier les éventuels foyers et à reconstituer les schémas de transmission. Elle permettrait également de mettre au point des mesures de contrôle et des systèmes d’alerte afin de protéger les zones non touchées.
Au-delà de la santé animale, ces données commerciales sont aussi très utiles. Elles aident à créer des politiques qui préparent l’économie aux changements climatiques et à l’instabilité politique.
Mieux connaître le commerce informel a un autre avantage. Cela peut aider à obtenir des financements pour lutter contre le changement climatique. En montrant son importance réelle, on prouve que cette partie de l’économie mérite d’être soutenue.
Par exemple, dans l’un de nos derniers rapports, nous estimons que les exportations régionales de bétail du Mali, du Niger et du Burkina Faso devraient avoisiner le milliard de dollars américains si l’on tient compte du commerce non déclaré, contre 80 millions de dollars américains selon les statistiques officielles.
La rédaction de cet article s’est appuyée sur les travaux de :
. Brahima Cissé, qui coordonne le programme des marchés régionaux à la Communauté économique des États de l’Afrique de l’Ouest au Togo ;
. Dr Alban Masaparisi, économiste spécialisé dans la transformation des systèmes alimentaires et la politique agricole au Club Sahel et Afrique de l’Ouest de l’OCDE, en France ;
. M. Koffi Zougbede, économiste travaillant sur les systèmes alimentaires au Club Sahel et Afrique de l’Ouest de l’OCDE, en France.
Olivier Walther bénéficie d’un financement de l’OCDE.
Andrea Apolloni and Lacey Harris-Coble do not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.
La démocratie ivoirienne s’apprête à subir un nouveau revers lors du scrutin présidentiel du 25 octobre. Le président sortant, Alassane Ouattara, brigue un quatrième mandat et, ses deux principaux adversaires – Laurent Gbagbo, Tidjane Thiam et Pascal Affi N’Guessan – ayant été écartés de la course, sa victoire ne fait aucun doute. Pourtant, alors que les observateurs et les militants prodémocratie alertent depuis longtemps sur la dérive autoritaire du pays, la France, l’Union européenne et la Communauté économique des Etats de l’Afrique de l’Ouest (Cedeao) gardent un silence assourdissant, laissant la démocratie mourir dans les urnes.
Alassane Ouattara a déjà remporté trois scrutins présidentiels. Le premier, en 2010, a été entaché de violences électorales massives et d’une reprise du conflit armé qui a fait plus de 1 500 morts. Apparu en 2002, le conflit ivoirien avait fait près de 10 000 morts mais était en sommeil depuis un accord de paix de 2007. Le second, en 2015, s’est appuyé sur une large coalition qui s’est ensuite disloquée. Le troisième, en 2020, s’est soldé par un boycott violent de la part de l’opposition.
Les accusations de « capture constitutionnelle » se sont depuis multipliées et, fait rare, l’opposition pourtant fragmentée fait bloc pour dénoncer la candidature du président à un quatrième mandat.
En août dernier, Alassane Ouattara a officialisé sa candidature à un nouveau mandat de cinq ans. Comme en 2020, l’opposition a aussitôt condamné cette décision, tandis que la communauté internationale s’est montrée remarquablement silencieuse. Le camp présidentiel soutient que la révision constitutionnelle de 2016 aurait « remis les compteurs à zéro » et lui permettrait donc de briguer un second mandat sous le régime de la nouvelle Constitution.
Ses adversaires affirment au contraire que la limite est d’un mandat de cinq ans renouvelable une seule fois, et que les troisième et quatrième candidatures de Ouattara constituent un coup de force constitutionnel, phénomène bien connu sur le continent.
Quelle que soit l’interprétation juridique, cette nouvelle candidature représente un recul majeur pour la démocratie, porté par un dirigeant qui, déjà avant le scrutin de 2020, affirmait que la politique ivoirienne avait besoin d’un profond renouvellement générationnel.
Un terrain biaisé
Au-delà du principe de limitation à deux mandats, l’élection de 2025 mine la démocratie ivoirienne parce qu’elle se joue sur un terrain largement biaisé en faveur du pouvoir en place. En septembre, le Conseil constitutionnel a invalidé les candidatures des deux principaux opposants, Tidjane Thiam et Pascal Affi N’Guessan, pour des raisons techniques. Tidjane Thiam, nouveau chef du Parti démocratique de Côte d’Ivoire (PDCI) – le plus ancien parti du pays – était perçu comme le seul capable d’inquiéter le président sortant. Il a été écarté au motif que la renonciation à sa nationalité française aurait été finalisée trop tard.
Quant à Affi N’Guessan, héritier du Front populaire ivoirien (FPI) de Laurent Gbagbo après l’inculpation de ce dernier à la Cour pénale internationale, il a été disqualifié au motif qu’il n’aurait pas réuni le nombre de parrainages requis. Qu’il s’agisse d’une négligence de leur part ou d’un verrouillage bureaucratique orchestré par le pouvoir importe peu : l’absence des deux principaux candidats jette une ombre inquiétante sur le scrutin de 2025.
Dans un climat politique déjà polarisé, marqué par des rumeurs de corruption et la contestation des pratiques controversées d’Alassane Ouattara, une telle compétition tronquée ne fait qu’approfondir les fractures entre le pouvoir et l’opposition, et accentuer la désillusion des électeurs. Cette polarisation et ce désenchantement risquent d’engendrer de nouvelles violences, menace récurrente dans un pays où les élections sont souvent entachées d’affrontements.
Pour parachever ce tournant autoritaire, le Conseil national de sécurité a interdit les rassemblements publics, invoquant des raisons de sécurité. Les autorités cherchent manifestement à prévenir un scénario similaire à celui de 2020, lorsque l’opposition avait appelé à la « désobéissance civile ». Des affrontements entre manifestants, forces de l’ordre et communautés rivales avaient alors fait au moins 83 morts et plus de 600 blessés. Cependant, interdire les manifestations peut facilement produire l’effet inverse, et l’opposition appelle déjà à manifester chaque jour pendant la courte campagne électorale.
Le silence de la communauté internationale
Malgré cette triple atteinte à la démocratie, la réaction internationale reste au mieux timide. Alassane Ouattara demeure le chouchou des partenaires étrangers, notamment la France et l’Union européenne. Depuis son arrivée au pouvoir, il a présidé à une croissance économique record sur le continent, lancé d’importants projets d’infrastructures, et mené la Côte d’Ivoire à une victoire inattendue lors de la Coupe d’Afrique des Nations à domicile, en 2024. Sa popularité auprès des dirigeants européens s’est encore renforcée à mesure que l’influence française s’effondrait dans ses anciennes colonies.
Ouattara est désormais l’un des rares chefs d’État ouest-africains à maintenir des relations diplomatiques avec Paris « comme si de rien n’était ». Craignant d’attiser un nouveau vent d’hostilité anti-française, Paris reste muet face au démantèlement progressif de la démocratie ivoirienne. L’Union européenne, quant à elle, lui emboîte le pas, ne sachant toujours pas définir une politique régionale indépendante du leadership implicite de la France.
Ironiquement, le silence de la France et l’Union européenne face à la dérive autoritaire de Ouattara sapent leur propre crédibilité. Les accusations de double standard et d’hypocrisie quant aux principes démocratiques nourrissent précisément la rhétorique anti-française de dirigeants comme le capitaine Ibrahim Traoré, à la tête du Burkina Faso. En se taisant face à la lente agonie de la démocratie ivoirienne, les dirigeants occidentaux affaiblissent encore leur position en Afrique de l’Ouest.
La Cedeao se trouve quant à elle dans une impasse pareille, en se taisant face aux tendances autocrates du président ivoirien et de son gouvernement. Toujours ébranlée par le retrait de trois États sahéliens dirigés par des juntes militaires, l’organisation régionale compte désormais sur la Côte d’Ivoire et le Nigeria pour préserver sa légitimité. Dans ce contexte, il est peu probable qu’elle prenne une position ferme sur la candidature de Ouattara ou sur les irrégularités électorales.
À l’approche du scrutin, de nombreuses zones d’ombre subsistent. Des coalitions se forment entre les candidats encore en lice, tandis que certains exclus s’allient pour créer un « front commun » réclamant leur réintégration et appelant à descendre dans la rue. Les manifestations s’intensifient : plus de 200 personnes ont été arrêtées, le 11 octobre, lors d’un rassemblement pacifique à Abidjan.
Si la contestation populaire n’a pas réussi à faire fléchir le pouvoir en 2020, les exemples récents de Madagascar et du Kenya montrent que les régimes qui ignorent la soif populaire de changement le font à leurs risques et périls.
Quelles que soient les péripéties des dernières semaines de campagne, la démocratie a déjà subi un revers majeur en Côte d’Ivoire. Avec une quatrième victoire de Ouattara annoncée, la question la plus pressante n’est sans doute pas le résultat du vote d’octobre, mais les séquelles durables qu’il laissera sur la vie politique du pays.
À plus long terme, le président sortant, l’opposition et la communauté internationale partagent la responsabilité de préparer une transition pacifique et constitutionnelle vers l’ère post-Ouattara – dans l’espoir que la démocratie ivoirienne puisse se relever et qu’une nouvelle génération des politiciens puisse diriger de manière pacifique et non polarisante.
Sebastian van Baalen receives funding from the Swedish Research Council (grant VR2020-00914, VR2020-03936, and VR2024-00989. He is a member of the Conflict Research Society steering council, a not-for-profit academic organization.
Jesper Bjarnesen receives funding from the Swedish Research Council (grant VR2024-00989).
Il y a presque cent ans, l’automobile faisait tellement rêver que les aventures de Bécassine y consacraient un album. Que disait cette fascination pour la voiture ? Au-delà, quelle place l’automobile occupe-t-elle dans la bande dessinée ?
Les salons automobiles sont depuis plus d’un siècle les vitrines du progrès technique et des rêves de mobilité. Mais bien avant les véhicules électriques, connectés et autonomes, une figure inattendue avait déjà pris place au volant : Bécassine.
Dans l’album intitulé l’Automobile de Bécassine (1927), la célèbre domestique bretonne conduit une Excelsior, marque belge prestigieuse aujourd’hui disparue. De cette façon, les auteurs, Caumery et Pinchon, offrent un témoignage singulier de la fascination de cette époque pour l’automobile et de l’inscription de ce symbole de modernité au cœur des représentations sociales.
Une héroïne populaire face à la modernité
Née en 1905 dans la Semaine de Suzette, Bécassine est une héroïne comique, souvent caricaturée pour ses maladresses et son langage naïf. Or, ses aventures la placent sans cesse face aux innovations techniques de son temps. Elle découvre le gaz, le téléphone, l’aviation… autant de signes d’un monde en transformation. Pendant la Grande Guerre, la série la montre mobilisée, symbole de l’élargissement du rôle des femmes et de leur engagement durant le conflit.
Le 6 janvier 1927, c’est l’automobile qui est au cœur de la nouvelle aventure de la célèbre Bretonne. La France des années 1920, marquée par les « Années folles », associe la voiture à la vitesse, au luxe et à la distinction sociale. Voir Bécassine, figure d’origine modeste, entrer dans une salle d’exposition Excelsior et s’installer dans un véhicule prestigieux crée un contraste à la fois comique et révélateur. D’un côté, la naïveté de l’héroïne amuse ; de l’autre, le lecteur est invité à partager son émerveillement.
Un beau joujou
La voiture est alors perçue comme un « beau joujou », pour reprendre les termes de l’album, un objet de rêve encore réservé à une élite. Cette dimension sociale est renforcée par la situation de la marquise de Grand-Air, maîtresse de Bécassine, contrainte par des difficultés financières de se séparer de sa propre automobile et de son chauffeur.
Le beau joujou. Hachette/Gautier-Languereau, 1927, Fourni par l’auteur
L’accès de Bécassine à la voiture passe alors par un détour inattendu : elle remporte le gros lot d’un concours organisé par la Société des confitures Dilecta, fondé sur un lâcher de ballons. Le procédé renvoie aux jeux concours promotionnels des années 1920. En remportant l’automobile (une Torpedo 10 CV de couleur jaune), Bécassine en devient la conductrice et rend ainsi de nouveau possible à sa maîtresse l’usage de la voiture.
Cette bande dessinée a aussi une portée symbolique. Tandis que les femmes n’obtiendront le droit de vote en France qu’en 1944, elles ont eu accès très tôt à la conduite automobile. En 1898, la duchesse d’Uzès est d’ailleurs la première femme à obtenir le certificat de capacité (l’équivalent de l’actuel permis de conduire) et devient dans la foulée la première conductrice verbalisée pour excès de vitesse à… 15 km/h.
Ce qui frappe dans l’Automobile de Bécassine, c’est la mention explicite d’une marque réelle : Excelsior, constructeur belge, actif de 1903 à 1929. Était-ce de la publicité déguisée ou plus précisément une forme de « placement produit » ? Rien ne permet a priori de l’affirmer. Ce que l’on peut dire, en revanche, c’est que le recours à une marque connue confère au récit une vraisemblance accrue. Il semble a minima s’agir ici d’une forme de réalisme référentiel permettant de donner à une fiction une texture de vérité en s’appuyant sur des objets, des marques et/ou des lieux existants.
Dans le cas de la poupée Bleuette, également mentionnée dans l’album, la dimension commerciale est, cette fois, explicite. Il faut savoir que Bleuette est commercialisée par l’éditeur Gautier-Languereau et vendue aux lectrices de la Semaine de Suzette. Sa présence relève donc d’une véritable stratégie de promotion croisée : la bande dessinée valorise un objet que les enfants pouvaient se voir offrir et la référence à la poupée, en retour, prolonge l’univers de Bécassine dans le quotidien de ses jeunes lectrices.
La poupée Bleuette. Hachette/Gautier-Languereau, 1927, Fourni par l’auteur
De l’Excelsior à la Fiat 509 : l’automobile, héroïne (et anti-héroïne) de la bédé
Revenons à l’automobile : d’autres grandes séries lui ont très vite accordé une place de choix, en l’intégrant comme accessoire narratif, symbole ou même moteur de l’action. Hergé peuple Tintin de voitures inspirées de modèles réels : on trouve par exemple la Ford T dans Tintin au Congo (1931) ou bien encore la Lincoln Torpedo dans les Cigares du pharaon (1934). La présence de ces véhicules traduit l’esprit d’aventure et l’ancrage contemporain des albums de Tintin. Plus tard, dans l’album intitulé la Corne de rhinocéros (1955), Spirou et Fantasio ont le privilège de découvrir la Turbotraction, bolide au design futuriste, incarnant l’enthousiasme technologique de l’après-guerre.
Avec Michel Vaillant, Jean Graton franchit un cap : l’automobile n’est plus un accessoire, mais l’objet central du récit, donnant lieu à un univers entier de courses et de compétitions. Dans une veine plus populaire, -Bibi Fricotin_ illustre cette appropriation enthousiaste. En particulier, l’album Bibi Fricotin, as du volant (1960) montre combien la voiture devient un espace d’aventure, reflet de sa démocratisation croissante.
À côté de ces représentations héroïques, la bédé a également proposé des incursions comiques. Dans Tintin, la mythique 2 CV des Dupond et Dupont devient elle-même source de burlesque, ses déboires mécaniques faisant écho aux bévues de ses propriétaires. Franquin, avec Gaston Lagaffe, tourne également le mythe automobile en dérision : la vieille Fiat 509 rafistolée et polluante devient l’anti-bolide par excellence, dénonçant par l’absurde la civilisation automobile. Ironie de l’histoire, Fiat rendra hommage à Lagaffe en publiant en 1977 un album promotionnel intitulé « La fantastica FIAT 509 di Gaston Lagaffe », preuve, s’il en fallait, que même la satire peut être récupérée par le marketing.
La Fiat 509 de Gaston Lagaffe sur la place verte de Charleroi. Wikimediacommons
De l’Excelsior luxueuse de Bécassine à la guimbarde comique de Gaston, en passant par les bolides de Tintin et de Spirou, la bande dessinée met en scène toutes les facettes de notre rapport à la voiture : fascination, appropriation, démocratisation et critique.
L’automobile, d’hier à aujourd’hui : entre innovation et récit
Aujourd’hui, les salons consacrés à l’automobile mettent en avant les enjeux de transition vers l’électrique, les mobilités partagées et connectées. Les aventures de Bécassine rappellent que, dès son apparition, l’automobile a été bien plus qu’un outil de transport : elle a été un objet culturel et symbolique.
France 3 Bretagne, 2025.
L’Excelsior fascinait comme un bijou mécanique ; les concept-cars ou Tesla d’aujourd’hui suscitent une curiosité semblable. Ce parallèle souligne une constante : l’innovation ne se diffuse jamais seule, elle doit être racontée, mise en scène, appropriée. Depuis ses débuts, l’automobile s’accompagne d’un imaginaire qui dépasse la seule prouesse technique.
Raconter, c’est donner à la voiture une histoire, un usage, une promesse : celle de la vitesse, de la liberté ou du confort. Mettre en scène, c’est lui offrir un cadre visible (un salon automobile, une publicité, une bande dessinée) qui transforme la machine en spectacle, en expérience esthétique et sociale. Enfin, s’approprier, c’est permettre à chacun de relier cet objet à sa propre existence, à ses rêves ou à ses valeurs.
Comme les automobiles d’exposition d’aujourd’hui, l’Excelsior de Bécassine ne relevait pas seulement du progrès mécanique : elle participait d’un imaginaire collectif, d’une mise en récit de la modernité où la technique devient le miroir de son époque.
Sophie Renault ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Loin de permettre l’omniscience quant à la vie des individus, les données numériques n’offrent qu’un point de vue sur le social. Elles ressemblent en cela aux méthodes statistiques qui les ont précédées, et s’inscrivent dans une histoire longue de la collecte de connaissances sur les populations.
Les traces que nous laissons lorsque nous naviguons sur Internet – nos données numériques – disent beaucoup de nous. Nous avons même souvent l’impression que les spécialistes de la science des données, en les récupérant et en les assemblant, peuvent finir par tout savoir de nous. Cette prétention à l’omniscience de leur part peut être effrayante pour certains, ou au contraire fascinante pour d’autres.
Pourtant, la science des données n’offre qu’un point de vue sur le social, et comme tout point de vue, elle laisse aussi un grand nombre de choses hors champ. Mais alors, que dévoile la science des données ? Qu’est-ce qui lui échappe ?
Une bonne méthode pour répondre à cette question est de comparer la science des données à d’autres méthodes statistiques plus anciennes dont elle découle et qui, comme elle, donnaient en leur temps un point de vue sur la population. La définition et la comparaison de ces méthodes permet de définir ce que chacune voit, et ce qui lui échappe.
Construire l’État par le recensement
Le recensement de la population est vieux comme la Bible. Dès le livre des Nombres, Dieu commande à Moïse : « Faites le dénombrement de toute la communauté des fils d’Israël par clans, par familles, en comptant nommément tous les hommes, un par un. Tous ceux qui ont vingt ans et plus, ceux qui, en Israël, sont aptes à rejoindre l’armée, toi et Aaron, vous les recenserez par formations de combat. » (NB 1, 2-3). Le recensement sert ici à construire l’armée d’un collectif. Pour le dire de façon moins belliqueuse et plus contemporaine, il participe à la construction de la force de l’État.
L’usage purement militaire est devenu très vite aussi fiscal, le recensement servant à préparer l’impôt, qui n’est qu’un autre aspect de la force de l’État. La Bible donne également les éléments techniques minimaux de cette opération : pour connaître ses propres forces, l’État définit une communauté, et investit une entité spécifique (ici Moïse et Aaron ; aujourd’hui les instituts nationaux de statistique) de la tâche de compter, exhaustivement et sans répétition, les individus membres de cette communauté. Ainsi, le recensement permet de mesurer la force d’une nation, et de construire la souveraineté nationale.
Cela n’empêche pas certains acteurs de biaiser le décompte – à chaque méthode statistique sa forme de déviance. Les histoires de fermes et de fermiers tentant d’échapper au recensement (par crainte de l’impôt ou de la conscription) sont nombreuses ; de même l’entité qui décompte peut fictivement favoriser tel ou tel sous-ensemble contre un autre. Ainsi, le président américain Donald Trump a tenté lors de son premier mandat d’interdire de compter les étrangers en situation irrégulière lors du recensement de 2020. Ce biais statistique aurait renforcé les états républicains où les étrangers sont peu nombreux, et affaibli les états démocrates, où davantage d’entre eux sont présents, le nombre de représentants à la Chambre basse du Congrès américain dépendant du poids démographique d’un état donné. La Cour suprême avait fini par s’opposer à cette mesure.
La précision du recensement engendre par ailleurs une très grande lourdeur dans son organisation. Pour obtenir des données sur des évolutions rapides, comme celles des volumes de marchandises échangés annuellement sur un marché par exemple, il est ainsi complètement inopérant.
Les « correspondants volontaires », les yeux de l’État sur l’économie
Au XIXe siècle, la méthode des correspondants volontaires a été mise au point et utilisée dans le monde entier pour stabiliser les marchés, d’abord agricoles – ceux-ci étant à l’époque les plus importants. Cette méthode reposait sur le constat que les conditions concrètes des travailleurs engendraient ce que l’on appelle aujourd’hui une asymétrie d’information. En effet, le travail de production du paysan l’attache à sa ferme dans laquelle il passe le plus clair de son temps. Au contraire, l’acheteur de produits agricoles se déplace d’exploitation en exploitation pour récupérer les produits. De ce fait, le second se construit une vision bien plus générale de l’état de la production que le premier, qu’il peut mobiliser à son avantage dans les négociations avec les agriculteurs.
Pour que le marché soit plus équitable, il devient ainsi nécessaire de calculer une estimation objective des productions, les prix dépendant des volumes mis en vente. La plupart des États occidentaux ont pris sur eux depuis la fin du XIXe siècle de produire de telles données, qui participent d’une conception libérale de l’économie.
La méthode consistait à désigner des « correspondants volontaires », souvent des fermiers, répartis sur tout le territoire, qui menaient eux-mêmes des enquêtes locales sur la production auprès d’autres fermiers désireux de partager leurs données. Ces correspondants envoyaient leurs informations au gouvernement central, qui les agrégeaient et les rendaient publiques. L’exigence d’exhaustivité est ici remplacée par la bonne volonté des participants, qui ne sont pas représentatifs mais plutôt des « représentants » des autres agriculteurs, motivés à défendre les intérêts de leur profession à l’aide des informations partagées. Cette méthode permet à l’État de « voir » les marchés.
La déviance repose ici sur le fait que les participants sont incités à sous-déclarer leur production : cela tend en effet à faire augmenter les prix – un biais que doit nécessairement redresser l’État, qui agit alors en commissaire-priseur central, fixant les prix de référence.
Cette méthode a perdu son prestige lors de la grande dépression des années 1930. Les longues files de chômeurs, les fermes abandonnées, les suicides de banquiers montraient bien que la seule stabilisation des marchés était inefficace pour retrouver le bon fonctionnement de l’économie. La clairvoyance du New Deal aux États-Unis fut de comprendre qu’il fallait que l’État intervienne plus directement dans l’économie, en offrant du travail aux ouvriers et employés. L’objectif était d’empêcher que ceux-ci ne se laissent dépérir, tant économiquement que moralement, selon la conception du travail majoritaire à l’époque. Mais comment savoir quel projet lancer pour obtenir un impact maximal ?
Quand les sondages guident le bras de l’État
C’est pour répondre à cette question qu’ont été développés les sondages représentatifs. Cette méthode permet d’identifier rapidement et sur des territoires flexibles des corrélations entre ce que l’on appelle des « variables explicatives » et des « variables à expliquer ». Pour pouvoir collecter de l’information avec encore plus de souplesse, les statisticiens ont inventé le principe des échantillons représentatifs : de petite taille, ceux-ci « représentent » cependant en proportion la population entière, dans ses caractéristiques socio-économiques. L’exemple paradigmatique est celui de la mesure du chômage, qui aujourd’hui encore est effectuée de cette façon.
Ici, les individus étudiés dans l’échantillon ne sont pas pensés comme des agents actifs luttant pour se défendre, à l’image de ce qui pouvait se produire dans la méthode des « correspondants volontaires », mais comme des sujets passifs, subissant les forces adverses de la société et bénéficiant des politiques de l’État-providence. Ce que permettent de voir les sondages, ce sont ainsi les déterminants des problèmes socio-économiques – qui échappent aux deux méthodes précédentes.
Cette méthode peut également être pervertie par une déviance : vue à travers les sondages, la population est réduite à une masse susceptible d’être manipulée, ce que dénonçait le sociologue C. Wright Mills. Cette accusation est d’ailleurs toujours portée à l’encontre des sondages préélectoraux, supposés « orienter » le résultat du vote.
Les données numériques, un portrait fidèle des individus ?
Qu’en est-il des données numériques ? Que capturent-elles exactement ? Comme elles sont beaucoup plus récentes, il est plus difficile de l’identifier. Pourtant, on peut déjà lister ce qui leur échappe. Notons d’abord que ces données ne relèvent pas du champ de l’État, comme les précédentes méthodes, mais revêtent un caractère global, puisqu’elles dépassent aisément les frontières. Elles ne sont pas non plus exhaustives, au sens où l’on ne sait pas exactement qui intervient sur la toile et qui « s’abstient ».
On peut aller plus loin, en posant que les données numériques ne sont habituellement pas représentatives de quelque entité que ce soit puisqu’en général il n’y a ni sélection par tirage au sort des participants, ni entité commune dont ils feraient partie et qu’ils pourraient représenter. Les caractéristiques techniques des données numériques les rendent donc par essence incapables de rien voir exhaustivement, ni même de façon représentative.
Si l’on prend l’exemple des réseaux sociaux, certaines personnes peuvent avoir plusieurs comptes, d’autres être complètement absentes, tandis qu’une proportion des comptes ne représente pas des individus, mais des entreprises ou des administrations, par exemple. Lorsqu’on étudie des données numériques, on se trouve ainsi souvent devant de très grosses bases de données, sans savoir à quoi elles se rapportent exactement. Autrement dit, contrairement aux autres méthodes, on ne sait pas ce qu’on mesure avec ces données : elles constituent simplement une agglomération de points d’information sans « question » à laquelle on chercherait à répondre.
Les données numériques impliquent certes, comme dans le cas des correspondants volontaires, un certain degré d’engagement dans la production des données, puisqu’elles résultent de l’activité des utilisateurs. Mais ceux-ci ne souhaitent pas toujours que leurs données soient utilisées, et surtout pas contre leurs intérêts, comme ce fut le cas lors du scandale Cambridge Analytica où les données numériques ont été exploitées pour manipuler des électeurs.
Il n’y a enfin pas d’instance de contrôle de la véracité des déclarations individuelles sur les réseaux sociaux, comparable au rôle de l’administration publique dans les réseaux de correspondants volontaires ; ceci participe aux vagues de fake news auxquelles nous sommes maintenant tristement habitués.
Cela dit, comment synthétiser les caractéristiques de ce que les données permettent d’observer ? Certains chercheurs, comme le sociologue Dominique Boullier, affirment que les données numériques capturent tout ce qui se propage dans la société, comme les informations ou les rumeurs. D’autres, comme Christian Borch, insistent sur le fait que les données illustrent avant tout la tension entre le désir mimétique et le désir anti-mimétique des individus qui agissent sur les réseaux. Par cette opposition de deux désirs concurrents, le sociologue entend que chacun veut à la fois participer au grand flux des échanges numériques, donc en ce sens faire comme tout le monde, tout en se démarquant dans cette mer d’identités.
Ces deux auteurs ont en commun de retourner aux travaux fondateurs du sociologue du XIXᵉ siècle Gabriel Tarde, qui faisait de l’imitation le moteur de la société. Tarde ne tranchait cependant pas la question de savoir si cette « imitation » était une force autonome, opérant au-delà ou en deçà des individus, ou s’il s’agissait tout simplement d’une attitude humaine partagée. Une relecture comparative de cet auteur semble donc nécessaire pour mettre d’accord les deux conceptions opposées, mais sans doute réconciliables, de la part du réel que capturent les données numériques.
Emmanuel Didier a bénéficié d’une aide de l’État gérée par l’Agence Nationale de la Recherche au titre de France 2030 portant la référence ANR-22-PESN-0004
Source: The Conversation – in French – By Stéphanie Parmentier, Chargée d’enseignement à Aix-Marseille Université (amU), docteure qualifiée en littérature française et en SIC et professeure documentaliste. Chercheuse rattachée à l’IMSIC et au CIELAM, Aix-Marseille Université (AMU)
Les textes générés par l’IA ne laissent pas les lecteurs indifférents.Pexels, CC BY
Qui aurait pensé qu’un jour les intelligences artificielles génératives rédigeraient, corrigeraient et seraient publiées ? Que vaut une littérature née sous IA ? Que devient notre imaginaire sous leur influence ? Et quels bouleversements sont à prévoir dans le monde de la littérature dans les années, ou les mois, à venir ?
Dans son essai Quand l’IA tue la littérature (PUF, 2025), Stéphanie Parmentier examine la place qu’occupent dans le domaine littéraire ces nouvelles marchandes de prose que sont les IA. Extraits.
Lorsqu’il écrit un manuscrit, un auteur cherche très rarement à le conserver uniquement pour lui-même. Dans son for intérieur, sans toujours oser se l’avouer, il espère que la qualité de ses récits captivera des lecteurs toujours plus nombreux.
Dans le circuit du livre, ce sont en effet ces derniers qui dictent l’espérance de vie d’une création littéraire, malgré le rôle majeur que jouent les éditeurs, les distributeurs ou encore les libraires dans la valorisation d’une publication. Les avis des lecteurs et leur comportement d’achat vont souvent contribuer à asseoir la carrière d’un auteur et la longévité d’un livre. Loin d’être de simples acheteurs passifs, les lecteurs possèdent un pouvoir de prescription, qui ne cesse de s’étendre jusqu’à s’imposer au monde des éditeurs.
Les nouveaux supports de communication apportent des repères inédits et redéfinissent les accès à la notoriété. Un lecteur n’a plus besoin d’adresser un courrier à un éditeur pour exprimer sa satisfaction ou sa déception après avoir lu un livre, il peut partager instantanément ses émotions et ses analyses auprès de milliers d’autres lecteurs en toute simplicité.
Depuis les années 2000, les supports permettant de donner son avis sur une publication n’ont cessé de se diversifier. L’apparition des blogs de lecteurs, des espaces de ventes de livres en ligne comme ceux de la Fnac ou d’Amazon, mais aussi des sites de partage de lectures de type Babelio ou Gleeph, sans oublier les réseaux sociaux, offre à de nombreux lecteurs la possibilité de mettre en avant leur coup de cœur, tout en exprimant leurs avis sur leur lecture ou en leur attribuant une note de satisfaction.
« Des personnes passionnées du livre et de la lecture ont investi sans retenue le net et les réseaux sociaux créant une nouvelle “sociabilité littéraire”. […] Pour elles, écrire, lire, et conseiller tout en communiquant sur ces pratiques, pourtant personnelles, sont devenus des comportements courants au point de faire naître de véritables prescripteurs littéraires. », peut-on lire dans les Cahiers du numérique en 2022.
Qu’il s’agisse des BookTubeurs, Bookstagrameurs ou BookTokeurs, ces nouveaux acteurs, appelés communément « influenceurs littéraires », avec leurs vidéos toujours plus animées pour exprimer leurs coups de cœur, occupent une place importante et inédite dans le processus de promotion d’une parution. À l’ère numérique, le pouvoir des lecteurs n’a en effet jamais été aussi grand. Ils peuvent découvrir, partager et promouvoir des œuvres, comme l’explique Chris Anderson dans la Longue Traîne, en soulignant tout le potentiel des consommateurs : « Ne sous-estimez jamais la puissance d’un million d’amateurs qui ont les clés de l’usine. »
Un équilibre constructif et bénéfique s’est établi entre les nouvelles technologies numériques et les plaisirs du lectorat. L’introduction d’IA dans la production littéraire risque pourtant de compromettre l’appréciation des lecteurs confrontée aux interférences d’algorithmes. Face à l’immixtion d’IA dans plusieurs champs littéraires, le lectorat ne semble pas encore réagir. Que pensent les lecteurs des livres nés sous IA ? Vont-ils les défendre ou au contraire, les dévaloriser ? Pour le moment, il n’y a pas encore de réactions d’adhésion ou, au contraire, de désapprobation.
La réception de textes générés par l’IA ne laisse pas pour autant les lecteurs indifférents ; elle induit des réserves et une perception plutôt sceptique. Les personnes attachées aux valeurs fondamentales de la littérature semblent les plus attentives. Redoutant les textes produits par des IA, certains lecteurs n’hésitent pas à exprimer leur crainte, notamment sur le réseau social Reddit :
« Pour moi, le problème principal est qu’en tant que lecteur, c’est que je ne veux pas lire quelque chose qui provient d’un ordinateur. Les livres sont un moyen de se connecter aux autres. Vous pouvez vous connecter à la vision du monde d’un auteur et voir comment son expérience se chevauche avec la vôtre. Il y a une sorte d’humanité partagée dans la lecture de fiction, un sentiment de compréhension et d’être compris. Appelez-moi romantique, mais je pense que c’est une grande partie de la raison pour laquelle nous lisons. Ce n’est pas seulement pour tuer le temps. Ça ne marche pas s’il n’y a pas de personne derrière les mots. »
Quand l’utilisation des IA n’est pas mentionnée dès la page de couverture, les lecteurs sont souvent désabusés en découvrant l’implication des robots génératifs au fil de leur lecture. Sur le réseau Babelio consacré à la littérature, un lecteur, malgré ses doutes, témoigne de la stupeur éprouvée en lisant la bande dessinée Mathis ou la forêt des possibles de Jiri Benovsky évoquée plus haut et dont les illustrations relèvent de l’IA :
« L’histoire commence donc et au bout de quatre ou cinq pages, je trouve qu’il y a quelque chose qui cloche, malgré la beauté époustouflante des images, je ne ressens pas la vie dans cette histoire, les personnages semblent figés, comme s’ils posaient pour la photo, une impression morbide, les textes sont dans des phylactères formatés, presque toujours la même longueur, le rythme est raide et plat. […] À la dernière page, je me suis dit : “c’est joli”. Ce n’est pas un compliment, généralement, j’utilise ce mot péjorativement. À la fin, on y trouve une postface, et sa lecture me laisse sur le cul ! […] Je découvre, avec cette postface, que cette bande dessinée a été réalisée à l’aide d’une intelligence artificielle ! »
Ces deux exemples ne sont pas isolés. Le malaise exprimé est commun à beaucoup d’autres lecteurs, devenus méfiants à l’égard de nouvelles publications dont l’identité de l’auteur n’est pas connue.
« Comment faire l’effort de lire un tel ouvrage [Internes] quand on ne sait pas quelle est l’origine du discours et ce qu’on lit ? », interroge l’auteur expérimental Grégory Chatonsky en évoquant son livre Internes. Soupçonneux à l’égard des créations littéraires qu’ils ont sous les yeux, les lecteurs tendent à modifier leur comportement. Auparavant, ils lisaient un texte écrit et validé par un esprit humain, avec l’ambition d’en savourer toute l’originalité, en toute confiance. Les lecteurs les plus avisés ont tendance à se métamorphoser en « lecteurs-scan » à la recherche de la moindre trace d’IA « fake text », car, si les robots conversationnels demeurent en général inapparents, leur patte, en revanche, est perceptible.
La perte de repère qu’entraînent les IA déstabilise la lecture et peut engendrer une certaine inquiétude chez les lecteurs, comme l’explique la chercheuse Erika Fülüop :
« Cette perte d’orientation peut donner au lecteur l’expérience d’une “inquiétante étrangeté” : les textes semblent “humains”, mais on sent un petit décalage difficile à saisir. »
Il est difficile de dire quelle attitude doivent adopter les lecteurs devant des textes « IA-géniques ». Leur faut-il systématiquement les rejeter au risque de passer à côté d’une littérature expérimentale capable d’enrichir le domaine littéraire ? Pour certains, il faut accepter ces textes malgré leur structure inhabituelle. Selon Grégory Chatonsky :
« Dans ce contexte, c’est la possibilité même d’un contrat de lecture qui est déconstruit. […] La seule façon de lire ce roman [Internes] est peut-être de suspendre la croyance en un contrat de lecture : lire sans préalable, sans attente, sans horizon. J’aimerais y entendre l’impossible des possibles. Cela est beaucoup plus difficile qu’il n’y paraît. »
En dépit de l’atmosphère déstabilisante dans laquelle se trouvent les lecteurs, certains d’entre eux affirment apprécier les textes relevant des IA. Des lecteurs écrivent des avis positifs à propos de livres générés par des IA, notamment celui de Raphaël Doan, coécrit avec une IA, intitulé Si Rome n’avait pas chuté. Sur le site Babelio mais aussi sur Amazon, plusieurs lecteurs s’enthousiasment à propos de ce roman d’anticipation, comme, Jean J. :
« Au-delà des illustrations par IA, le texte est surprenant. […] L’IA (et le coauteur humain peut-être) propose une idée radicalement neuve : une révolution industrielle qui aurait pu être plausible. Elle se débarrasse froidement des “sciences humaines” et attaque directement dans le dur. Et ça fonctionne ! »
Devant le doute que soulève l’immixtion de l’IA dans l’écriture, des chercheurs de l’université de Pittsburg ont mené une étude dont les résultats ont été publiés dans Scientific Report. Leur démarche visait à évaluer la capacité des lecteurs à distinguer des poèmes écrits par des humains de ceux générés par ChatGPT 3.5. Selon les conclusions tirées, il n’est pas simple pour les lecteurs de discerner ce qui relève d’une production humaine ou d’une création artificielle :
« Contrairement à ce qu’indiquaient des études antérieures, les gens semblent aujourd’hui incapables de distinguer de manière fiable la poésie générée par l’IA […] de la poésie écrite par l’homme et rédigée par des poètes bien connus. »
Plus surprenant, les chercheurs révèlent un phénomène inattendu, puisqu’une partie des participants préfèrent les poèmes générés par l’IA à ceux créés par des esprits humains. Pour expliquer un tel résultat, les rapporteurs de l’étude supposent que ce ne sont pas les qualités littéraires des textes générés par le robot génératif qui sont appréciées par les lecteurs mais leur facilité de lecture :
« Les gens évaluent mieux les poèmes générés par l’IA […] en partie parce qu’ils les trouvent plus simples. Dans notre étude, les poèmes générés par l’IA sont généralement plus accessibles que les poèmes écrits par des humains. »
Pour l’heure, à défaut de données précises, des nuances et des réserves s’imposent.
L’opinion n’est pas unanime, mais il serait prématuré de parler de fragmentation entre lecteurs et textes dopés à l’IA, du moins aussi longtemps que le phénomène « IA-génique » reste contenu. Sur le fond, il y a matière à rester optimiste, car il appartient aux lecteurs, sans oublier les éditeurs, de réguler la pénétration de ce type de publication dans le monde du livre. Jusqu’à présent, comme l’indique l’auteur Mark Dawson, cité par la journaliste Marine Protais :
« Si un livre reçoit de mauvaises critiques parce que l’écriture est ennuyeuse, il va rapidement sombrer. »
« Enfin… Sauf si d’autres bots se mettent à noter positivement les livres de leurs collègues – hypothèse moins absurde que ce qu’on pourrait croire. »
Quand l’IA tue la littérature, Stéphanie Parmentier, Presses universitaires de France, hors collection, paru le 8 octobre 2025.
Stéphanie Parmentier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Le 4 mai 2016, la Banque centrale européenne (BCE) décide de cesser l’émission des billets de 500 euros. Le nombre de ces billets en circulation passe de 614 millions, fin 2015, à un peu moins de 220 millions, au milieu de l’année 2025.DerkachevArtem/Shutterstock
Pour blanchir l’argent tiré de la vente de cocaïne, les trafiquants ont longtemps convoyé leurs recettes en utilisant des billets de 500 euros confiés à des « mules ». La surveillance accrue et la raréfaction des grosses coupures ont conduit les réseaux de blanchiment à payer les trafiquants de drogue en cryptomonnaies et à expédier les espèces sur des routes plus tranquilles, comme celles menant à Dubaï (Émirats arabes unis).
Le marché de la cocaïne a explosé entre 2014 et 2023. La production en Colombie a été multipliée par plus de sept pour atteindre, selon l’Organisation des Nations unies contre la drogue et le crime (ONUDC), près de 2 700 tonnes.
En coulisse, les trafiquants de drogue trouvent des moyens tout aussi illicites pour payer leurs fournisseurs, leurs petites mains ou pour dépenser le fruit de leur commerce criminel. La solution utilisée : le blanchiment d’argent. On estime que 25 % des montants collectés doivent être blanchis.
Trois phases sont généralement nécessaires dans le blanchiment : le placement dans le système financier, l’empilement (ou layering) avec le but de perdre la trace de l’origine des fonds et, enfin, l’intégration, où l’argent apparaît désormais légitime. Cette typologie ne permet pas de comprendre que le blanchiment est parfois partiel, c’est-à-dire qu’on s’arrête à la première étape. Considérons un exemple.
Prenons l’argent tiré de la cocaïne en provenance du principal exportateur de la coca : la Colombie. Une partie est intégralement blanchie sur place, en réinjectant l’argent liquide dans des commerces légitimes – restaurants, salons de coiffure, etc. –, tandis qu’une autre partie sert à payer la marchandise. Pour ce faire, il a longtemps suffi de fournir des espèces – en billets de banque –, dont le blanchiment s’achevait en Colombie.
Contrebande d’espèces
En Europe, elles sont changées en billets de 500 euros par des complices travaillant dans des banques puis confiées à des mules d’argent. Ces dernières prennent l’avion avec des sommes de 200 000 à 500 000 euros. Cette contrebande d’espèces en vrac (bulk cash smuggling) est le maillon de la chaîne du trafic de drogue ayant bénéficié à l’apparition des cryptomonnaies dans le trafic de drogue.
Pour bien comprendre l’emploi des cryptomonnaies dans le blanchiment de l’argent de la drogue, il faut expliciter les modalités de la contrebande d’espèces en vrac. Un article de Peter Reute et Melvin Soudijn (le premier est criminologue et le second officier de renseignement dans la police néerlandaise) a permis de mesurer précisément les coûts de cette opération. Ils ont accédé aux documents comptables des trafiquants dans six affaires jugées pour des faits qui se sont déroulés entre 2003 et 2008. Ils totalisent 800 millions d’euros transportés entre les Pays-Bas et la Colombie.
Les coûts représentaient environ 3 % pour le changement des petites coupures en billets de 500 euros, autant pour rémunérer la mule, un peu moins pour son voyage. La surveillance importante de l’aéroport d’Amsterdam-Schiphol obligeait à prendre l’avion ailleurs en Europe. Si on tient compte des frais annexes, le seul transport de fonds à destination de la Colombie coûtait entre 10 % et 15 %, voire jusqu’à 17 % des montants déplacés.
Concrètement :
La cocaïne part de Colombie.
Elle est vendue par des intermédiaires en Europe.
L’argent collecté de cette vente est changé en billets de 500 euros, moyennant 3 % de frais.
Les billets de 500 euros sont confiés à des mules, moyennant 3 % de frais.
Les mules voyagent vers la Colombie, moyennant 3 % de frais.
L’argent liquide arrive en Colombie pour payer la drogue, puis est blanchi sur place, avec encore des frais.
Pour les auteurs, la réglementation anti-blanchiment réussit à augmenter significativement les coûts de la contrebande, notamment le transport, mais pas le prix de vente, puisque le marché de la cocaïne augmente chaque année en France. En France, les prévalences de consommation ont été multipliées par neuf depuis 2000. Pour pallier ces réglementations, les trafiquants misent sur le billet de 500 euros.
« Il a été décidé de mettre fin de façon permanente à la production du billet de 500 euros et de le retirer de la série “Europe”, tenant compte des préoccupations selon lesquelles cette coupure pourrait faciliter les activités illicites », souligne la Banque centrale européenne.
Cette même année, un nouvel actif financier entre en trombe : le bitcoin.
Apparition des cryptomonnaies
À partir de 2016, face à la raréfaction des billets de 500 euros, le bitcoin va contribuer à reconfigurer les routes du trafic d’espèces.
Au lieu d’une filière intégrée où les espèces reviennent à la source de la drogue pour payer les livraisons, on assiste à une spécialisation. D’un côté, les trafiquants de drogue échangent leurs espèces contre des cryptomonnaies qu’ils utilisent pour payer leur approvisionnement en Colombie. De l’autre, une filière de blanchiment récupère les billets et les fait voyager sur des routes plus faciles, comme celles menant à Dubaï (Émirats arabes unis).
Comment sait-on cela ? Par exemple, grâce à l’opération Destabilize de la National Crime Agency britannique. Le dossier de presse décrit un réseau international de blanchiment, contrôlé par des Russes. Ils utilisaient une plateforme d’échange n’exerçant pas son obligation de vigilance, Garantex, pour les opérations en cryptomonnaies, et Dubaï pour les opérations en espèces.
Le réseau de blanchiment récoltait les espèces des trafiquants de drogue et les payait en cryptojetons (notamment en USDT-Tether), moyennant 3 % de frais seulement. Par comparaison avec les 10 % à 15 % que coûtait le transport en Colombie avant la mise en extinction des billets de 500 euros, c’est une économie de 70 % à 80 %.
Cadre de déclaration des cryptoactifs
Les cryptomonnaies – d’abord le bitcoin et, désormais, les stablecoins comme l’USDT-Tether – ont permis aux trafiquants de drogue d’économiser leur marge sur l’envoi d’espèces en choisissant les routes les plus sûres. Il est trop tôt pour savoir si l’augmentation considérable du trafic de drogue transatlantique, attestée par une enquête récente du Financial Times, est liée à cette innovation technique.
Concrètement, la nouvelle méthode suit cette nouvelle route entre les trafiquants de drogue et les réseaux de blanchiment :
La cocaïne part de Colombie.
Elle est vendue par des intermédiaires en Europe.
L’argent collecté de cette vente est changé contre des cryptomonnaies USDT- Tether, moyennant 3 % de frais.
Les cryptomonnaies USDT-Tether sont envoyées en Colombie pour payer la drogue.
Pour le réseau de blanchiment, les espèces sont confiées à des mules, qui voyagent à Dubaï, moyennant 1 % de frais.
À Dubaï, les espèces sont blanchies, moyennant 1 % de frais.
Législation contre le blanchiment par cryptoactif
On peut penser que l’application des règles antiblanchiment aux prestataires de services liés aux cryptoactifs, dans les pays signataires du Crypto-Asset Reporting Framework_, va compliquer le jeu des organisations criminelles… qui sauront pourtant trouver les moindres failles et les exploiter.
L’invention des cryptomonnaies a fait perdre des années dans la lutte contre la criminalité organisée, mais la « coalition des volontaires », comme la Suisse, les Bahamas, Malte ou la France s’organise enfin.
En France, la lutte contre le blanchiment d’argent est renforcée par une loi « visant à sortir la France du piège du narcotrafic », promulguée en juin 2025. Un parquet national spécialisé est créé. Des mesures sont mises en place, de la fermeture administrative des commerces de façade (par les préfets plutôt que les maires trop exposés), le gel des avoirs des narcotrafiquants ou contre le mix de cryptoactifs.
Mais les trafiquants s’adaptent pour éviter d’être pris, c’est ce que nous verrons dans un second article.
A travaillé pour la Direction de la Surveillance du Territoire dans les années 1990.
Un hélicoptère de la Garde côtière survole des maisons inondées à Kipnuk, en Alaska, le 12 octobre 2025.U.S. Coast Guard
Avec la montée des eaux, le dégel du pergélisol et des prévisions tardives, la catastrophe provoquée par le passage de Halong met en lumière les défis d’adaptation à venir pour les communautés isolées d’Alaska.
Les vestiges d’un puissant typhon ont déferlé le 12 octobre 2025 sur le delta du Yukon-Kuskokwim, dans l’ouest de l’Alaska aux États-Unis, soulevant une onde de tempête qui a inondé des villages jusqu’à près de 100 kilomètres à l’intérieur des terres. Selon les autorités, les eaux ont arraché des maisons à leurs fondations et en ont emporté certaines avec leurs occupants. Plus de cinquante personnes ont dû être secourues à Kipnuk et Kwigillingok, des centaines d’habitants ont été déplacés dans la région et au moins une personne a perdu la vie.
Le typhon Halong était un phénomène inhabituel, sans doute alimenté par les températures de surface de l’océan Pacifique, proches de records cet automne. Son passage à cette période de l’année rendra la reconstruction encore plus difficile pour les communautés durement touchées, comme l’explique le météorologue Rick Thoman, de l’Université d’Alaska à Fairbanks.
Les catastrophes en Alaska rural ne ressemblent à aucune autre aux États-Unis, précise-t-il. Alors que les habitants de la côte Est, frappés le même week-end par une tempête ayant inondé le New Jersey et d’autres États, ont pu se rendre dans un magasin de bricolage pour acheter du matériel ou réserver une chambre d’hôtel en cas d’inondation, rien de tout cela n’existe dans les villages autochtones isolés d’Alaska.
La montée des eaux et les vents violents provoqués par l’ex-typhon Halong ont arraché des maisons à leurs fondations et en ont fait dériver certaines. U.S. Coast Guard via AP
Qu’est-ce qui rendait cette tempête inhabituelle ?
Halong était un ex-typhon, semblable à Merbok en 2022, lorsqu’il a atteint le delta. Une semaine plus tôt, il s’agissait encore d’un puissant typhon à l’est du Japon. Le jet stream l’a ensuite entraîné vers le nord-est, un phénomène assez courant, et les modèles météorologiques avaient plutôt bien prévu sa trajectoire jusqu’à la mer de Béring.
Mais à l’approche de l’Alaska, tout a déraillé.
Les prévisions des modèles ont changé, indiquant une tempête se déplaçant plus rapidement, et Halong a suivi une trajectoire très inhabituelle, passant entre l’île Saint-Laurent et la côte du delta du Yukon-Kuskokwim.
Trajectoire de l’ex-typhon Halong, montrant sa remontée vers le delta du Yukon-Kuskokwim, en Alaska. Rick Thoman
Contrairement à Merbok, dont les modèles mondiaux avaient très bien anticipé la trajectoire, celle de Halong — ainsi que son intensité finale — n’étaient pas claires avant que la tempête ne soit à moins de 36 heures des eaux territoriales de l’Alaska. C’était bien trop tard pour organiser des évacuations dans de nombreuses localités.
La perte des données du programme de ballons météorologiques, suspendu en 2025, a-t-elle affecté les prévisions ?
C’est une question qui fera l’objet de recherches futures, mais voici ce que l’on sait avec certitude : il n’y a eu aucune observation en altitude par ballon météorologique à l’île Saint-Paul, dans la mer de Béring, depuis la fin du mois d’août, ni à Kotzebue depuis février. À Bethel et Cold Bay, les lancements sont limités à un par jour au lieu de deux. À Nome, aucun ballon n’a été envoyé pendant deux jours entiers alors que la tempête se dirigeait vers la mer de Béring.
Est-ce que cela a faussé les prévisions ? On ne le sait pas, faute de données, mais il semble probable que cela ait eu un effet sur la performance des modèles.
Pourquoi la région du delta est-elle si vulnérable face à une tempête comme Halong ?
Le terrain, dans cette partie ouest de l’Alaska, est très plat, ce qui permet à de fortes tempêtes de faire pénétrer l’océan dans le delta, où l’eau se répand largement.
La plupart des terres se trouvent très près du niveau de la mer, parfois à moins de trois mètres au-dessus de la ligne de marée haute. Le dégel du pergélisol, l’affaissement du sol et la montée du niveau de la mer accentuent encore le risque. Pour de nombreuses personnes, il n’existe littéralement aucun endroit où se réfugier. Même Bethel, la plus grande ville de la région, située à une centaine de kilomètres en amont sur la rivière Kuskokwim, a connu des inondations provoquées par Halong.
Des habitants autochtones de Kipnuk évoquent les défis posés par la disparition du pergélisol et le changement climatique dans leur village. Alaska Institute for Justice.
Ces villages sont également de petite taille. Ils ne disposent ni de logements supplémentaires ni des ressources nécessaires pour se relever rapidement. La région se remettait déjà d’importantes inondations survenues à l’été 2024. La tribu de Kipnuk a pu obtenir une aide fédérale pour catastrophe naturelle, mais celle-ci n’a été approuvée qu’au début de janvier 2025.
À quoi ces communautés sont-elles confrontées pour la reconstruction ?
Les habitants vont devoir prendre des décisions très difficiles. Faut-il quitter la communauté pour l’hiver et espérer reconstruire l’été prochain ?
Il y a sans doute très peu de logements disponibles dans la région, d’autant que les inondations ont été étendues et qu’il existe déjà une pénurie de logements. Les personnes déplacées doivent-elles se rendre à Anchorage ? La vie en ville y est coûteuse. Il n’existe pas de solution simple.
La reconstruction dans des endroits comme Kipnuk est logiquement complexe. On ne peut pas simplement décrocher son téléphone et appeler un entrepreneur local. Presque tous les matériaux doivent être acheminés par barge – du contreplaqué aux clous en passant par les fenêtres – et cela ne se fera pas en hiver. Impossible de transporter quoi que ce soit par camion : il n’y a pas de routes. Les avions ne peuvent transporter que de petites quantités, car les pistes sont courtes et non adaptées aux avions cargo.
La Garde nationale pourrait peut-être aider à acheminer des fournitures par avion. Mais il faut encore disposer de personnes capables d’assurer la construction et les réparations. Tout devient cent fois plus compliqué lorsqu’il s’agit de bâtir dans des communautés isolées. Même si une aide nationale ou fédérale est approuvée, la plupart des maisons ne pourraient être reconstruites qu’à l’été prochain.
Le changement climatique joue-t-il un rôle dans ce type de tempêtes ?
Ce sera une autre question à explorer dans de futures recherches, mais la température de surface de la mer dans la majeure partie du Pacifique Nord, que le typhon Halong a traversée avant d’atteindre les îles Aléoutiennes, était bien plus élevée que la normale. Les eaux chaudes alimentent les tempêtes.
Une comparaison des températures quotidiennes de surface de la mer montre à quel point une grande partie du Pacifique Nord était anormalement chaude avant et pendant le passage du typhon Halong. NOAA Coral Reef Watch
Halong a également entraîné avec lui une masse d’air très chaud vers le nord. À l’est de sa trajectoire, le 11 octobre, Unalaska a enregistré 20 °C, un record absolu pour un mois d’octobre à cet endroit.
Rick Thoman a pris sa retraite du service météorologique national (National Weather Service) de la région Alaska en 2018.
En septembre 2025, la Chine a organisé une grand-messe de l’Organisation de coopération de Shanghai et un immense défilé à l’occasion des 80 ans de la fin de la Seconde Guerre mondiale. Ce fut l’occasion pour elle d’afficher sa volonté de réformer la gouvernance mondiale et de se poser en leader du « Sud global ». Dans le même temps, comme l’a démontré la dernière Assemblée générale de l’ONU, la République populaire cherche à s’imposer toujours davantage au sein des Nations unies, tout en rapprochant les institutions onusiennes des plateformes multilatérales qu’elle contrôle.
Au mois de septembre 2025, le double anniversaire de la victoire des Alliés (reddition de l’Allemagne en mai et du Japon en septembre 1945) et de la fondation de l’Organisation des Nations unies en octobre 1945 a offert à Pékin une séquence idéale pour promouvoir un système multilatéral plus étroitement aligné sur ses intérêts.
Le sommet de l’OCS et l’annonce de l’Initiative pour la gouvernance mondiale
La séquence s’est ouverte le 1er septembre à Tianjin, où la Chine organisait le 25e sommet de l’Organisation de coopération de Shanghai (OCS). Fondée en 2001 par la Chine, la Russie et quatre pays centrasiatiques, l’OCS était à l’origine une organisation régionale essentiellement vouée aux questions de sécurité et de lutte contre le terrorisme. Elle s’est ensuite progressivement étendue, intégrant l’Inde et le Pakistan (2017) puis l’Iran (2023) comme nouveaux membres.
Aujourd’hui, l’organisation eurasiatique – la plus « grande organisation régionale du monde », comme aime à le rappeler Pékin – s’est muée en une plateforme stratégique au sein de laquelle la Chine promeut ses normes et son discours sur la nécessaire réforme de l’ordre international, tout en affichant son leadership au sein du « Sud global ».
À Tianjin, le président chinois Xi Jinping avait ainsi rassemblé une vingtaine de chefs d’État et de gouvernement, dont le président russe Vladimir Poutine et le premier ministre indien Narendra Modi.
En présence du secrétaire général des Nations unies Antonio Guterres, le président chinois a saisi l’occasion de ce sommet pour annoncer une Initiative pour la gouvernance mondiale (GGI, de l’anglais Global Governance Initiative), visant à « construire un système de gouvernance mondiale plus juste et plus équitable ». Déclinant cinq concepts clés, il a notamment souligné l’importance du respect de la souveraineté et du droit international, tout en appelant à renforcer le multilatéralisme face aux grands défis mondiaux.
Formulée en termes délibérément vagues et exempte de propositions concrètes, la GGI n’en esquisse pas moins la vision chinoise d’une gouvernance mondiale reconfigurée, dans l’objectif de pallier trois « défaillances » des organisations existantes : la sous-représentation des pays du Sud dans les enceintes internationales, l’érosion de l’autorité des Nations unies (incarnée par l’impuissance du Conseil de sécurité face à la situation à Gaza) et leur manque d’efficacité (démontré par le retard dans la mise en œuvre des Objectifs de développement durable).
Cette vision se caractérise par la centralité qu’elle accorde aux questions de développement économique, par son refus des alliances militaires au profit d’une sécurité commune, et par sa conception pluraliste de la « coexistence harmonieuse » entre civilisations, qui ne laisse aucune place à l’universalité des droits humains.
Ces thématiques avaient déjà été mises en avant par les trois initiatives globales lancées par Xi Jinping entre 2021 et 2023, portant respectivement sur le développement, sur la sécurité et sur la civilisation.
Une constellation d’organisations et de forums multilatéraux
Cette vision se manifeste également dans le choix du sommet de l’OCS pour annoncer la GGI. L’OCS incarne en effet la volonté de Pékin de reconfigurer la coopération multilatérale autour d’une constellation d’organisations, de forums et de mécanismes peu contraignants, dont le principal point commun est de promouvoir un monde multipolaire, tout en accordant une place prépondérante, voire centrale, à la Chine. S’appuyant sur son « cercle d’amis » parmi les pays en développement, Pékin entend bâtir des contrepoids aux institutions dominées par les pays occidentaux, comme le G7.
Cette constellation comprend en premier lieu l’OCS et les Brics+, dont l’élargissement récent était une priorité pour la Chine. Dans le domaine financier, elle inclut également la Nouvelle Banque de développement des Brics (NBD), mais aussi la Banque asiatique d’investissement pour les infrastructures (AIIB), établie en 2016. Surtout, elle s’étend via la multiplication des forums « multi-bilatéraux » sino-centrés, comme le Forum sur la coopération sino-africaine (FOCAC) ou le Sommet Chine-Asie centrale, dont la première édition a été organisée en 2023.
Si ces plateformes participent d’abord d’un « effet d’affichage », l’évolution de l’OCS traduit la volonté chinoise d’en faire un vecteur d’approfondissement des coopérations.
Invoquant la nécessité de mettre en œuvre des « actions concrètes », le président chinois a ainsi plaidé pour la création d’une banque de développement de l’OCS. Il a aussi annoncé la mise en œuvre d’une centaine de projets de développement en faveur des États membres, financés par un don de deux milliards de yuans (240 millions d’euros), de même qu’un renforcement de la coopération dans les domaines de l’éducation, de la santé et de l’intelligence artificielle.
Quel rôle pour l’ONU dans la diplomatie multilatérale chinoise ?
À la lumière de ces évolutions, la place accordée aux Nations unies dans la vision chinoise du multilatéralisme interroge. En effet, en 2015, pour le 70e anniversaire de l’ONU et pour son premier discours en tant que président de la Chine à la tribune de l’Assemblée générale, Xi Jinping avait mis en scène l’engagement multilatéral de son pays, présenté comme prêt à assumer davantage de responsabilités et à renforcer sa contribution à une organisation considérée comme « la plus universelle, la plus représentative et dotée de la plus haute autorité ».
Au cours des années suivantes, la Chine s’est affirmée comme une actrice majeure du système onusien, devenant sa quatrième contributrice financière et prenant la direction de plusieurs agences. Ambitionnant de transformer l’organisation depuis l’intérieur, elle s’est investie dans les Nations unies pour renforcer ses liens avec les pays en développement, diluer les normes libérales et redéfinir la conception des droits humains, tout en promouvant ses propres initiatives, en particulier les Nouvelles Routes de la soie.
Dix ans plus tard, pour le 80e anniversaire de l’ONU, Xi Jinping n’a pas fait le déplacement à New York, préférant y dépêcher son premier ministre, Li Qiang. Cette absence n’est pas anodine, puisque c’est la première fois depuis 1985 qu’un président chinois ne se rend pas à un anniversaire décennal de l’organisation. De même, le choix de dévoiler la GGI au sommet de l’OCS plutôt qu’à la tribune de l’Assemblée générale peut être interprété comme une volonté de la Chine de privilégier et de renforcer des plateformes où elle peut plus aisément manœuvrer.
Néanmoins, l’ONU demeure une source essentielle de légitimité pour Pékin, qui continue de proclamer son soutien à l’organisation, en contrepoint du désengagement des États-Unis. Pékin renforce sa présence au sein des institutions onusiennes et a accru ses contributions financières volontaires en 2024, celles-ci atteignant leur plus haut niveau depuis 2016. Pour autant, ces contributions restent modestes au regard des besoins, et la Chine contribue elle-même à la grave crise de liquidités que traverse l’ONU, en s’acquittant de plus en plus tardivement de ses contributions obligatoires.
Revendiquer l’héritage de 1945
Au total, ces dynamiques ambivalentes ne suggèrent ni un désintérêt complet de Pékin pour le système onusien, ni une montée en puissance qui verrait la Chine entièrement supplanter les États-Unis en son sein, ni encore l’édification d’un ambitieux système alternatif. En réalité, elles reflètent plutôt la volonté chinoise d’arrimer plus étroitement le système onusien aux formats multilatéraux privilégiés par Pékin. En témoigne l’adoption par l’Assemblée générale, le 5 septembre 2025, d’une résolution sur la coopération entre l’ONU et l’OCS, malgré l’opposition ou l’abstention des pays occidentaux.
Cet arrimage vise in fine à faire apparaître la vision illibérale de la Chine comme conforme aux principes de la Charte des Nations unies. C’est en effet l’héritage de 1945 que la Chine revendique, comme l’illustre le télescopage temporel entre le sommet de l’OCS et le grand défilé militaire organisé à Pékin pour les commémorations du 80e anniversaire de la victoire dans la « Guerre mondiale antifasciste ». Pour le Parti communiste chinois, il s’agit de se poser en garant légitime des principes fondateurs de la gouvernance mondiale et de l’ordre international, réinterprétés à l’aune de ses préférences idéologiques. En cela, comme l’a reconnu Li Qiang dans son discours, l’ONU demeure pour l’heure « irremplaçable ».
Quentin Couvreur ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Nicolas Benguigui, Professeur en sciences cognitives, sciences du sport et de la motricité – Laboratoire GREYC – UMR 6072 UNICAEN CNRS – UFR STAPS, Université de Caen Normandie
Si les technologies immersives, telles que les casques de réalité virtuelle ou les dispositifs de réalité augmentée, sont souvent associées aux loisirs, elles jouent aussi un rôle dans divers secteurs professionnels. Dans le domaine de la santé, leurs progrès renouvellent en particulier les protocoles de rééducation.
Réalité virtuelle, réalité augmentée, réalité mixte… Ces nouvelles technologies permettent d’immerger les utilisateurs dans des environnements numériques interactifs. Au cours des deux dernières décennies, ces technologies ont connu un très fort développement résultant des avancées combinées de l’électronique et de l’informatique.
Regroupées sous l’appellation de « réalité étendue » (« extended reality » en anglais, abrégé XR), ces technologies sont souvent associées au secteur du divertissement. Pourtant, elles sont aussi très largement utilisées dans les milieux professionnels, qu’il s’agisse de former ou d’entraîner des opérateurs ou pilotes de véhicules particulièrement quand ils se préparent à exercer dans des milieux difficiles ou dangereux, mais aussi pour développer de nouvelles approches pédagogiques à travers ce que l’on appelle les « serious games ».
Ces problèmes majeurs de santé se traduisent pour les enfants, adolescents ou adultes concernés par des altérations de leur motricité qui peuvent affecter la posture, les déplacements locomoteurs ou encore les actions des membres supérieurs. La rééducation est alors essentielle, car elle favorise la restauration de tout ou partie de ces fonctions motrices. Elle vient stimuler les mécanismes de plasticité cérébrale qui permettent des récupérations fonctionnelles parfois très importantes.
Ainsi, lorsque le cerveau subit certains dommages, les structures cérébrales ont un fort potentiel de réorganisation et de restauration des fonctions qui ont pu être altérées. Ce potentiel s’exprime d’autant plus quand la rééducation démarre tôt, de manière adaptée et progressive.
Dans un tel contexte, et afin d’offrir aux patients les meilleures chances de récupération, les thérapeutes ont pu développer une grande gamme de protocoles de rééducation. Les techniques conventionnelles employées dans la rééducation motrice présentent cependant parfois certaines limites ou contraintes pour les patients. Ainsi, la longueur et la répétitivité des séances peuvent par exemple provoquer fatigue, douleur et démotivation.
Ces technologies permettent de proposer aux patients des protocoles de soin avec des conditions contrôlées, progressives et attractives. Alors que les méthodes traditionnelles sont souvent fondées sur l’exécution de mouvements répétitifs et décontextualisés, ces technologies permettent de solliciter des actions finalisées, c’est-à-dire orientées vers un but concret. L’efficacité de la rééducation est de ce fait augmentée, et l’on constate une amélioration de la transférabilité des bénéfices vers les activités du quotidien.
Des premiers essais fondés sur des jeux commerciaux
Les premiers essais pour introduire les dispositifs numériques interactifs dans les centres de rééducation ont été réalisés essentiellement avec des systèmes de jeux vidéo disponibles dans le commerce, tels que les consoles de jeu PlayStation et caméra EyeToy, Xbox et caméra Kinect ou Nintendo Wii et caméra IR Pix Art. Ces systèmes de jeux nécessitent de produire des actions motrices plus ou moins complexes qui sont captées par les caméras et retranscrites sous différentes formes dans le jeu (déplacement d’un personnage, pilotage d’un véhicule, lancement de balles, etc.).
Dans la plupart des cas, l’usage de ces jeux vidéo s’est révélé bénéfique pour la rééducation. En effet, des études ont montré que ces bénéfices étaient liés aux interactions motrices requises dans un cadre ludique permettant de maintenir dans la durée la motivation des patients.
Toutefois, les possibilités d’adaptation de ces jeux aux capacités des patients sont souvent très limitées dans la mesure où ils n’ont pas été conçus dans ce but. Il en est de même pour leur intégration dans des protocoles de rééducation quantifiés, car ils ne permettent pas d’effectuer le suivi des patients et d’identifier finement la nature des progrès réalisés. Pour ces raisons, de nouvelles propositions de jeux spécifiques à la rééducation motrice ont émergé, faisant appel aux diverses technologies de la réalité étendue.
Réalité étendue, virtuelle, augmentée ou mixte : de quoi parle-t-on ?
Le concept de réalité étendue recouvre plusieurs technologies : réalité virtuelle, réalité mixte et réalité augmentée.
La réalité virtuelle plonge entièrement l’utilisateur dans un monde numérique, par l’intermédiaire de casques dotés de deux mini-écrans (un pour chaque œil). Ceux-ci permettent de percevoir l’environnement numérique en stéréo, et donc en 3D. Les casques sont également équipés de capteurs permettant de détecter les mouvements de la tête pour une mise à jour en « temps réel » des images projetées, ce qui permet l’exploration du monde virtuel dans toutes les directions. Les interactions avec ces environnements numériques sont rendues possibles par l’utilisation d’interfaces connectées telles que des manettes de contrôle, des marqueurs placés sur le corps ou encore des gants d’interaction.
La réalité mixte, quant à elle, projette des espaces numériques dans un environnement réel bien visible. Les systèmes les plus immersifs permettent des projections sur des écrans multiples situés tout autour de la personne immergée (y compris au-dessus et en dessous d’elle).
Enfin, la réalité augmentée ajoute des éléments numériques dans le monde réel. Cette technologie peut utiliser des lunettes permettant la surimpression d’éléments numériques dans la scène visuelle réelle. Elle peut aussi recourir à une caméra qui filme l’environnement et le projette sur un écran, où sont ajoutés les éléments numériques. Cela est généralement réalisé dans un casque, tel que ceux utilisés pour les applications de réalité virtuelle, mais cela peut aussi se faire via un téléphone ou une tablette numérique.
Des jeux en réalité virtuelle spécifiques à la rééducation
L’un des atouts de la réalité virtuelle est qu’elle favorise l’implication dans la rééducation, en raison du « sentiment de présence » qu’elle génère, grâce à l’utilisation de casques immersifs.
Dans ces jeux de rééducation, la finalité des actions est prépondérante. Elle permet de donner à la rééducation davantage de sens, et une attractivité nouvelle. Le patient se rééduque progressivement, par des mouvements ayant un but précis : en atteignant des objets, en les utilisant, en adoptant des postures spécifiques ou encore en se déplaçant dans un parcours guidé. Cette finalisation des actions a pour but de favoriser des transferts plus rapides vers les activités du quotidien (par exemple cuisiner, ranger une pièce, jardiner, etc.). Les progrès réalisés sont quantifiés en matière d’amplitude, de fluidité, de vitesse et de précision des mouvements réalisés.
Le projet FarmaDay illustre bien cette approche. Cette application de neuroréhabilitation est destinée à rééduquer les membres supérieurs à travers des activités de la vie quotidienne en réalité virtuelle gamifiée avec l’utilisation de casques immersifs. Ce système place le patient dans un environnement virtuel reproduisant une ferme. Les patients peuvent l’explorer en y effectuant diverses tâches : s’occuper des animaux, cueillir des fruits ou des légumes, se laver les mains, verser une boisson ou encore jouer du piano.
Dépasser certaines craintes dues aux pathologies
Chez certains patients, les limitations fonctionnelles et la douleur peuvent être très intériorisées. Cela se traduit par une diminution de l’activité et de l’implication dans l’action, par crainte d’avoir mal, de se blesser à nouveau ou de ne pas y arriver. Cette « kinésiophobie » peut freiner la rééducation et contribuer à renforcer les limitations fonctionnelles.
Un des avantages de la réalité virtuelle totalement immersive est d’impliquer fortement les patients dans leur rééducation. Équipés d’un casque immersif, ils ne voient pas leur propre corps, mais seulement des représentations virtuelles de celui-ci (avatars), ce qui peut les aider à dépasser certaines de leurs craintes.
Autre intérêt de la rééducation en réalité virtuelle : la possibilité de créer des exercices dans lesquels les mouvements à produire et l’atteinte des buts recherchés sont guidés par différentes modalités sensorielles (visuelles, sonores, tactiles). Certains objets peuvent par exemple être mis en surbrillance quand le mouvement d’atteinte est réussi. Des guides ou des feed-back de trajectoires de mouvement, de direction, de rythme, peuvent être affichés, ainsi que des codes couleurs, des sons, des vibrations, ou encore des indications ou des commentaires sur les performances à réaliser.
À titre d’exemple, le projet RV-Reeduc réalisé au sein du laboratoire GREYC] de l’Université de Caen Normandie, a abouti au développement de jeux de poursuite et d’atteinte de cibles en mouvement, dans un environnement virtuel 3D avec casque immersif (voir vidéo présentée ci-dessous dans le cadre du projet Neo-Reeduc).
Proposés dans des centres de rééducation pour des enfants et adolescents atteints de paralysie cérébrale, ces jeux de rééducation ont permis d’améliorer les amplitudes, la fluidité et la précision des mouvements des jeunes patients, après un programme de trois séances hebdomadaires sur une durée d’un mois. Les effets bénéfiques se sont avérés durables, puisqu’ils étaient encore observés trois mois après la fin de la rééducation.
Des alternatives pour dépasser certaines limites de la réalité virtuelle
Si la réalité virtuelle a de nombreux avantages pour la rééducation motrice, elle présente aussi certains inconvénients. Ainsi, certains patients peuvent ressentir un inconfort lié au poids du casque ou à la sensation d’isolement qu’il induit. De plus, certains d’entre eux peuvent ressentir une appréhension, un déséquilibre ou un malaise proche du mal des transports ou cinétose, en particulier lorsque des déplacements sont requis.
Ce type de « cybermalaise » est le plus souvent dû à l’amplification des mouvements réalisés du réel en virtuel. Cette amplification des déplacements crée un décalage entre les perceptions corporelles et les perceptions visuelles. Il peut aussi être lié au décalage, même très faible, du « temps réel » dans la mise à jour des images visuelles, par rapport aux signaux de mouvements perçus par le corps. Ces phénomènes, appelés « incongruences » ou « conflits sensoriels », peuvent provoquer des symptômes désagréables tels que des maux de tête, des vertiges, voire des nausées et des vomissements.
L’immersion dans un monde virtuel doit donc se faire de manière progressive. Elle n’est pas forcément appropriée à tous les patients, notamment ceux qui présentent des troubles perceptifs. Pour pallier ces inconvénients, d’autres projets ont choisi de s’appuyer sur la réalité mixte, qui fusionne les mondes physique et numérique.
C’est le cas du projet Neo-Reeduc, piloté lui aussi par le laboratoire GREYC. Les jeux de rééducation créés en partenariat avec la société NeoXperiences se situent en réalité mixte. Les images sont projetées sur de grands murs interactifs, et les mouvements des utilisateurs, capturés grâce à un système vidéo (« motion capture »), permettent d’interagir avec les applications. Ainsi, plus besoin d’équiper les patients de casques, manettes de contrôles ou autres dispositifs corporels.
Une telle immersion en réalité mixte rend aussi possible l’implication de plusieurs utilisateurs, ce qui favorise les échanges et renforce les aspects ludiques et conviviaux des exercices, créant un environnement susceptible d’augmenter la motivation des patients à suivre la rééducation.
Perspectives de développements futurs
Les protocoles faisant appel aux nouvelles technologies de réalité étendue (XR) permettent de stimuler de manière plus précise, plus douce et plus progressive les fonctions motrices ayant subi des atteintes. Elles rendent la rééducation plus ludique et davantage finalisée, tout en renforçant la motivation des patients et leurs interactions sociales.
Ce faisant, ces technologies contribuent à diversifier et augmenter le volume de rééducation, en augmentant ainsi le potentiel de plasticité cérébrale. Cela permet d’élargir les répertoires des thérapeutes dans leurs protocoles de rééducation motrice pour une meilleure récupération fonctionnelle.
Des recherches complémentaires associant patients, thérapeutes, chercheurs et développeurs sont cependant encore nécessaires afin de mesurer plus finement l’efficacité de ces dispositifs de rééducation innovants. Il reste en effet à identifier plus précisément les facteurs pouvant générer des effets bénéfiques et ceux pouvant causer des effets indésirables. Enfin, il reste à explorer la possibilité d’utiliser des interfaces de plus petite dimension (tablettes graphiques et smartphones) qui pourraient permettre à terme la poursuite de la rééducation à domicile.
Les projets RV-Reeduc et Neo-Reeduc mentionnés dans cet article ont reçu des financements de la Région Normandie et des fonds Européens FEDER dans le cadre des appels à projets RIN Emergent et d’Innovation en collaboration. Le projet Neo-reeduc a été réalisé dans le cadre d’une collaboration avec la Société NeoXperiences.
Ces projets de recherche ont impliqué : Nicolas Benguigui, Rémi Laillier, Héloïse Baillet, Simone Burin-Chu, Luca Fantin, Laure Lejeune, Lucie Hubert, Adrien Picot, Corentin Loyer, Juliette Perriot, Kaoutar Arbouch, Régis Thouvarecq, Youssef Chahir, François Rioult, Pascale Leconte
Ils ont été réalisés avec les centre de rééducation suivants : Le CMPR La Clairière à Hérouville Saint Clair (14) ; L’IMPR du Bois de Lébisey à Hérouville Saint Clair (14) ; L’ IEM François Xavier Falala à Hérouville Saint- Clair (14) ; Le SSR les Monts d’Aunay à Aunay sur Odon (14) ; L’Hôpital de la Musse à Saint Sébastien de Morsent (27) ; L’ EPA Helen Ketter au Havre (76)
Héloïse Baillet, Laure Lejeune, Luca Fantin, Lucie Hubert, Pascale Leconte, Rémi Laillier et Simone Burin-Chu ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.