Pour les artistes comme pour les scientifiques, l’observation prolongée permet de faire émerger l’esprit critique

Source: The Conversation – France (in French) – By Amanda Bongers, Assistant Professor, Chemistry Education Research, Queen’s University, Ontario

S’il semble évident que les scientifiques doivent développer des compétences en analyse visuelle, ces dernières ne sont pas suffisamment enseignées ni mises en pratique dans nos universités.


C’est l’une des difficultés de l’apprentissage des sciences : il repose en partie sur des images et des simulations pour représenter des choses que nous ne pouvons pas voir à l’œil nu. Dans des matières comme la chimie, les étudiants peuvent avoir du mal à visualiser les atomes et les molécules à partir des symboles complexes qui les représentent.

Pourtant, la plupart des cours de chimie dispensés l’université n’aident pas les étudiants à mieux comprendre ces représentations. Les étudiants passent leurs cours à regarder passivement des diapositives pleines d’images sans s’impliquer ni générer les leurs. En s’appuyant sur leurs capacités innées plutôt qu’en apprenant à affiner leur pensée visuelle et leurs compétences en analyse d’images, de nombreux étudiants finissent par se sentir perdus face aux symboles et ont recours à des techniques de mémorisation fastidieuses et improductives.

Que pouvons-nous faire pour aider les élèves à analyser et à tirer des enseignements des visuels scientifiques ? La solution se trouve peut-être du côté de l’histoire de l’art. Il existe de nombreux parallèles entre les compétences acquises en histoire de l’art et celles requises dans les cours de sciences.

Développer un œil averti

Se sentir déconcerté par une œuvre d’art ressemble fortement à l’expérience que font de nombreux étudiants en chimie. Dans les deux cas, les spectateurs peuvent se demander : que suis-je en train de regarder, où dois-je regarder et qu’est-ce que cela signifie ?

Et si un portrait ou un paysage peut sembler, a priori, porter un message simple, les œuvres d’art regorgent d’informations et de messages cachés pour un œil non averti.

Plus on passe de temps à regarder chaque image, plus on peut découvrir d’informations, se poser des questions et approfondir son exploration visuelle et intellectuelle.

Par exemple, dans le tableau du XVIIIe siècle intitulé Nature morte aux fleurs sur une table de marbre (1716) de la peintre néerlandaise Rachel Ruysch, en regardant plus longuement les fleurs, on découvre plusieurs insectes dont les historiens de l’art interprètent la présence dans un contexte plus large de méditations spirituelles sur la mortalité.

Nature morte représentant de nombreuses fleurs sur fond noir, avec des insectes posés sur certaines feuilles
Avez-vous remarqué les insectes dans Nature morte avec des fleurs sur une table de marbre ?
(Rijksmuseum)

Le domaine de l’histoire de l’art est consacré à l’étude des œuvres d’art et met l’accent sur l’analyse visuelle et les capacités de réflexion critique. Lorsqu’un historien de l’art étudie une œuvre d’art, il explore les informations que celle-ci peut contenir, les raisons pour lesquelles elle a été présentée de cette manière et ce que cela signifie dans un contexte plus large.




À lire aussi :
Mike Pence’s fly: From Renaissance portraits to Salvador Dalí, artists used flies to make a point about appearances


Processus d’observation et de questionnement

Ce processus d’observation et de questionnement sur ce que l’on regarde est nécessaire à tous les niveaux de la science et constitue une compétence générale utile.

L’organisation à but non lucratif Visual Thinking Strategies a créé des ressources et des programmes destinés à aider les enseignants, de la maternelle au lycée, à utiliser l’art comme sujet de discussion dans leurs classes.

Ces discussions sur l’art aident les jeunes apprenants à développer leurs capacités de raisonnement, de communication et de gestion de l’incertitude. Une autre ressource, « Thinking Routines » (Routines de réflexion) du projet Zero de Harvard, inclut d’autres suggestions pour susciter l’intérêt des élèves pour l’art, afin de les aider à cultiver leur sens de l’observation, de l’interprétation et du questionnement.

Pour regarder de manière critique, il faut ralentir

De telles approches ont également été adoptées dans l’enseignement médical, où les étudiants en médecine apprennent à porter un regard critique grâce à des activités d’observation attentive d’œuvres d’art et explorent les thèmes de l’empathie, du pouvoir et des soins.

Une personne assise à un bureau regardant des images médicales
L’observation des œuvres d’art peut aider à enseigner aux professionnels l’observation critique, une compétence essentielle pour interpréter les images médicales.
(Shutterstock)

Les programmes d’humanités médicales aident également les jeunes professionnels à faire face à l’ambiguïté. Apprendre à analyser l’art change la façon dont les gens décrivent les images médicales, et améliore leur score d’empathie.

Les compétences nécessaires à l’analyse visuelle des œuvres d’art exigent que nous ralentissions, que nous laissions notre regard vagabonder et que nous réfléchissions. Une observation lente et approfondie implique de prendre quatre ou cinq minutes pour contempler silencieusement une œuvre d’art, afin de laisser apparaître des détails et des liens surprenants. Les étudiants qui se forment à l’imagerie médicale dans le domaine de la radiologie peuvent apprendre ce processus d’observation lente et critique en interagissant avec l’art.

Les étudiants en classe

Imaginez maintenant la différence entre un cadre calme comme un musée et une salle de classe, où l’on est obligé d’écouter, de regarder, de copier, d’apprendre à partir d’images et de se préparer pour les examens.

En cours, les étudiants prennent-ils le temps d’analyser ces schémas chimiques complexes ? Les recherches menées par mes collègues et moi-même suggèrent qu’ils y consacrent très peu de temps.

Lorsque nous avons assisté à des cours de chimie, nous avons constaté que les élèves regardaient passivement les images pendant que l’enseignant les commentait, ou copiaient les illustrations au fur et à mesure que l’enseignant les dessinait. Dans les deux cas, ils ne s’intéressaient pas aux illustrations et n’en créaient pas eux-mêmes.

Lorsqu’elle enseigne la chimie, Amanda, l’autrice principale de cet article, a constaté que les élèves se sentent obligés de trouver rapidement la « bonne » réponse lorsqu’ils résolvent des problèmes de chimie, ce qui les amène à négliger des informations importantes mais moins évidentes.

Analyse visuelle dans l’enseignement de la chimie

Notre équipe composée d’artistes, d’historiens de l’art, d’éducateurs artistiques, de professeurs de chimie et d’étudiants travaille à introduire l’analyse visuelle inspirée des arts dans les cours de chimie à l’université.

Grâce à des cours simulés suivis de discussions approfondies, nos recherches préliminaires ont mis en évidence des recoupements entre les pratiques et l’enseignement des compétences en arts visuels et les compétences nécessaires à l’enseignement de la chimie, et nous avons conçu des activités pour enseigner ces compétences aux étudiants.

Un groupe de discussion composé d’enseignants en sciences à l’université nous a aidés à affiner ces activités afin qu’elles correspondent aux salles de classe et aux objectifs des enseignants. Ce processus nous a permis d’identifier de nouvelles façons d’appréhender et d’utiliser les supports visuels. À mesure que nos recherches évoluent, ces activités sont également susceptibles d’évoluer.

Exemple d’activité d’analyse visuelle associant une œuvre d’art à un visuel de chimie
Exemple d’activité d’analyse visuelle associant une œuvre d’art à un visuel de chimie. À gauche : Étude cubiste d’une tête, par Elemér de Kóródy, 1913 (The Met). À droite : Analyse d’une réaction de cycloaddition (fournie par l’auteur).

De nombreux étudiants en sciences ne poursuivent pas une carrière traditionnelle dans le domaine scientifique, et leurs programmes mènent rarement à un emploi spécifique, mais les compétences en pensée visuelle sont essentielles dans le large éventail de compétences nécessaires à leur future carrière.

Par ailleurs, l’analyse visuelle et la pensée critique deviennent indispensables dans la vie quotidienne, avec l’essor des images et des vidéos générées par l’IA.

Développer des compétences pour ralentir et observer

Intégrer les arts dans d’autres disciplines peut favoriser la pensée critique et ouvrir de nouvelles perspectives aux apprenants. Nous soutenons que les arts peuvent aider les étudiants en sciences à développer des compétences essentielles en analyse visuelle en leur apprenant à ralentir et à simplement observer.

« Penser comme un scientifique » revient à se poser des questions sur ce que l’on voit, mais cela correspond tout aussi bien à la façon de réfléchir d’un historien de l’art, selon les principes suivants :

  1. Observer attentivement les détails ;

  2. Considérer les détails dans leur ensemble et dans leur contexte (par exemple, en se demandant : « Qui a créé cela et pourquoi ? ») ;

  3. Reconnaître la nécessité de disposer de connaissances techniques et fondamentales étendues pour comprendre ce qui est le moins évident ;

  4. Enfin, accepter l’incertitude. Il peut y avoir plusieurs réponses, et nous ne connaîtrons peut-être jamais la « bonne réponse » !

The Conversation

Amanda Bongers receives funding from SSHRC and NSERC.

Madeleine Dempster reçoit un financement du Conseil de recherches en sciences humaines.

ref. Pour les artistes comme pour les scientifiques, l’observation prolongée permet de faire émerger l’esprit critique – https://theconversation.com/pour-les-artistes-comme-pour-les-scientifiques-lobservation-prolongee-permet-de-faire-emerger-lesprit-critique-266616

Un empereur romain à genoux devant un roi perse : que faut-il lire derrière la nouvelle statue dévoilée à Téhéran ?

Source: The Conversation – France (in French) – By Peter Edwell, Associate Professor in Ancient History, Macquarie University

La mise en scène d’un empereur romain défait et soumis à Shapur Ier n’est pas nouvelle : elle puise dans l’imagerie triomphale de l’Iran antique. Mais son apparition sur la place Enghelab, à Téhéran, intervient à un moment où le pouvoir cherche à exalter la résistance nationale.


Une nouvelle statue dévoilée ces derniers jours en Iran représente un empereur romain se soumettant à un roi perse. Érigée sur la place Enghelab à Téhéran, la statue intitulée À genoux devant l’Iran montre l’empereur se prosternant devant Shapur Ier (qui régna aux alentours de 242 à 270 de notre ère). Mais d’où vient cette imagerie ? Et pourquoi cette statue a-t-elle été érigée maintenant ?

L’ascension de Shapur

Au IIIᵉ siècle de notre ère, une nouvelle dynastie appelée les Sassanides prend le pouvoir dans l’Iran antique. En quelques années, le premier roi sassanide, Ardachir Ier, commence à menacer les territoires romains en Mésopotamie (dans les régions correspondant aujourd’hui à la Turquie, l’Irak et la Syrie). Les Romains avaient arraché ces terres aux Parthes, les prédécesseurs des Sassanides.

Ardachir entend désormais reconquérir une partie de ces territoires perdus. Il remporte quelques succès dans les années 230. Mais son fils et successeur, Shapur Ier, porte cette ambition à un tout autre niveau. Ce dernier défait une armée romaine venue l’envahir en 244, une victoire qui entraîne la mort du jeune empereur romain Gordien III.

Dans les années 250, Shapur lance une vaste offensive en territoire romain à travers l’Irak, la Syrie et la Turquie. Deux grandes armées romaines sont vaincues et des dizaines de villes tombent. En 253, il s’empare d’Antioche, l’une des cités les plus importantes de l’empire. Certains de ses habitants, se trouvant au théâtre au moment de la chute de la ville, s’enfuient terrorisés tandis que les flèches pleuvent sur la cité.

L’empereur fait prisonnier

Si la prise d’Antioche est une lourde défaite pour les Romains, l’événement qui marque un tournant se situe en 260. Après une bataille à Édesse (dans l’actuelle Turquie méridionale), l’empereur romain Valérien est capturé. C’est la première et unique fois dans l’histoire qu’un empereur romain tombe vivant aux mains de l’ennemi. Valérien est emmené en Perse, avec des milliers d’autres prisonniers.

Son sort fait naître, par la suite, quantité de récits. Selon l’un d’eux, Valérien et des soldats prisonniers auraient été contraints de construire un pont sur le fleuve Karoun, à Shushtar. Les vestiges de cet ouvrage, connu sous le nom de Band-e Qayṣar (« le pont de l’empereur »), sont encore visibles aujourd’hui.

Le Band-e Kaïsar, construit par les Romains à Shushtar, en Iran, aurait été édifié par des prisonniers romains durant le règne de Shapur Ier.
Les ruines du pont Band-e Qayṣar.
Ali Afghah/Wikimedia

Selon un autre récit, Shapur aurait exigé que Valérien se mette à quatre pattes pour servir de marchepied, afin que le roi perse puisse monter à cheval. Shapur aurait également ordonné qu’après sa mort, le le corps de Valérien soit conservé, empaillé et placé dans une armoire. Ainsi, l’humiliation était totale.

On érigea des représentations des victoires de Shapur sur Rome dans tout l’empire perse. Plusieurs bas-reliefs sculptés célébrant ces triomphes ont survécu jusqu’à aujourd’hui. Le plus célèbre se trouve sans doute à Bishapur, dans le sud de l’Iran, où Shapur fit construire un palais magnifique. On y voit Shapur richement vêtu et assis sur un cheval. Sous le cheval gît le corps de Gordien III. Derrière lui se tient le captif Valérien, retenu par la main droite de Shapur. La figure placée à l’avant représente l’empereur Philippe Iᵉʳ (qui régna de 244 à 249 apr. J.-C.), successeur de Gordien. Il implore la libération de l’armée romaine vaincue.

Shapur sur son cheval.
Shapur est assis sur son cheval, sous lequel gît le corps de Gordien III. Derrière lui se tient le captif Valérien.
Marco Prins via Livius, CC BY

Shapur fit également graver une immense inscription en trois langues, qui célébrait notamment ses victoires majeures sur les Romains. Connue aujourd’hui sous le nom de Res Gestae Divi Saporis, elle est encore visible à Naqsh-i Rustam, dans le sud de l’Iran.

Le grand empire romain avait été profondément humilié. Les Perses emportèrent d’immenses ressources mais aussi des spécialistes comme des bâtisseurs, des architectes et des artisans, issus des villes conquises. Certaines cités de l’empire perse furent même repeuplées avec ces captifs.

Une nouvelle statue célébrant une vieille victoire

La statue révélée à Téhéran semble s’inspirer directement d’un bas-relief commémoratif de Naqsh-i Rustam. La figure agenouillée est présentée, dans plusieurs médias, comme Valérien. Si elle est effectivement inspirée du bas-relief de Naqsh-i Rustam, cette figure agenouillée correspond plutôt à Philippe Iᵉʳ, Valérien y étant représenté debout devant Shapur. Néanmoins, les déclarations officielles affirment qu’il s’agit bien de Valérien, notamment celle de Mehdi Mazhabi, directeur de l’Organisation municipale de l’embellissement de Téhéran, consignée dans un rapport :

La statue de Valérien reflète une vérité historique : l’Iran a toujours été une terre de résistance au fil des siècles […] En installant ce projet sur la place Enghelab, nous voulons créer un lien entre le passé glorieux de cette terre et son présent porteur d’espoir.

Les grandes victoires de Shapur sur les Romains restent une source de fierté nationale en Iran. La statue a ainsi été décrite comme un symbole de défi national après le bombardement par les États-Unis des installations nucléaires iraniennes en juin.

Bien que ces victoires sassanides remontent à plus de 1 700 ans, l’Iran continue de les célébrer. La statue s’adresse clairement au peuple iranien, dans la foulée des attaques américaines. Reste à savoir si elle constitue également un avertissement adressé à l’Occident.

The Conversation

Peter Edwell a reçu des financements de l’Australian Research Council.

ref. Un empereur romain à genoux devant un roi perse : que faut-il lire derrière la nouvelle statue dévoilée à Téhéran ? – https://theconversation.com/un-empereur-romain-a-genoux-devant-un-roi-perse-que-faut-il-lire-derriere-la-nouvelle-statue-devoilee-a-teheran-269733

La musculation améliore-t-elle la densité osseuse ?

Source: The Conversation – in French – By Hunter Bennett, Lecturer in Exercise Science, University of South Australia

La musculation est excellente pour la santé osseuse. (Unsplash), CC BY-NC-ND

Vous avez peut-être entendu dire que les activités à impact élevé, telles que la course à pied, le saut, le football et le basket-ball, sont bonnes pour renforcer la densité et la solidité osseuses. Mais qu’en est-il lorsque vous êtes immobile, en train de soulever des poids dans une salle de sport ?

La bonne nouvelle, c’est que la musculation est excellente pour la santé osseuse. Mais certains exercices sont plus efficaces que d’autres. Voici ce qu’en dit la science.

Qu’est-ce que la densité osseuse ?

La densité osseuse, également appelée densité minérale osseuse, est essentiellement une mesure de la quantité de minéraux (tels que le calcium et le phosphore) contenus dans vos os. Elle vous donne une indication de la solidité de vos os, ce qui est important, car les os plus denses sont généralement moins susceptibles de se fracturer.

Cependant, la densité osseuse n’est pas tout à fait la même chose que la résistance osseuse.

Les os dépendent également d’une série d’autres composés (tels que le collagène) pour assurer leur soutien et leur structure. Ainsi, même des os denses peuvent devenir fragiles s’ils manquent de ces composants structurels essentiels.

Cependant, la densité minérale osseuse est toujours considérée comme l’un des meilleurs indicateurs de la santé osseuse, car elle est étroitement liée au risque de fracture.

Bien qu’il existe probablement une composante génétique dans la santé osseuse, vos choix quotidiens peuvent avoir un impact important.

Qu’est-ce qui affecte votre santé osseuse ?

Des recherches montrent que plusieurs facteurs peuvent influencer la solidité et la densité de vos os :

Le vieillissement : Avec l’âge, notre densité minérale osseuse a tendance à diminuer. Ce déclin est généralement plus important chez les femmes après la ménopause, mais il touche tout le monde.

Nutrition : Consommer des aliments riches en calcium – en particulier les produits laitiers, mais également de nombreux légumes, noix, légumineuses, œufs et viande – a un impact limité sur la densité osseuse (bien que l’ampleur de la réduction du risque de fracture ne soit pas claire).

Exposition au soleil : la lumière du soleil aide votre corps à produire de la vitamine D, qui facilite l’absorption du calcium, et a été associée à une meilleure densité osseuse.

Exercice physique : il est bien établi que les personnes qui pratiquent des exercices à impact élevé et à forte charge (tels que le sprint et la musculation) ont tendance à avoir des os plus denses et plus solides que celles qui n’en font pas.

Tabagisme : Les personnes âgées qui fument ont généralement une densité osseuse plus faible que celles qui ne fument pas.

Pourquoi l’activité physique améliore-t-elle la densité osseuse ?

Tout comme vos muscles se renforcent lorsque vous les soumettez à un effort, vos os se renforcent lorsqu’ils sont soumis à une charge plus importante. C’est pourquoi l’exercice physique est si important pour la santé osseuse, car il incite vos os à s’adapter et à se renforcer.

Nous sommes nombreux à savoir que les personnes à risque de perte osseuse, à savoir les femmes ménopausées et les personnes âgées, doivent privilégier l’exercice physique pour préserver leur santé osseuse. Cependant, tout le monde peut tirer profit d’un exercice physique ciblé, et il est sans doute tout aussi important de prévenir le déclin de la santé osseuse.

En fait, que vous soyez un homme ou une femme, plus vous commencez jeune, plus vous avez de chances d’avoir des os plus denses à un âge avancé. C’est essentiel pour la santé osseuse à long terme.

La musculation améliore-t-elle la densité osseuse ?

Oui. L’un des exercices les plus efficaces pour la santé osseuse est la musculation.

Lorsque vous soulevez des poids, vos muscles tirent sur vos os, envoyant des signaux qui encouragent la formation de nouveaux os. Il existe de nombreuses preuves montrant que la musculation peut améliorer la densité osseuse chez les adultes, y compris chez les femmes ménopausées.

Mais tous les exercices ne se valent pas. Par exemple, certaines preuves suggèrent que les exercices composés qui sollicitent davantage le squelette, tels que les squats et les soulevés de terre, sont particulièrement efficaces pour augmenter la densité de la colonne vertébrale et des hanches, deux zones sujettes aux fractures.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


Quel type de musculation est le plus efficace ?

On pense que soulever des poids plus lourds donne de meilleurs résultats que soulever des poids plus légers. Cela signifie que faire des séries de trois à huit répétitions avec des poids lourds aura probablement un plus grand impact sur vos os que faire de nombreuses répétitions avec des poids plus légers.

De même, vos os ont besoin de beaucoup de temps pour s’adapter et devenir plus denses, généralement six mois ou plus. Cela signifie que pour avoir des os en bonne santé, il vaut mieux intégrer la musculation à votre routine hebdomadaire plutôt que de la pratiquer de manière intensive pendant quelques semaines.

Les exercices qui utilisent le poids du corps, tel que le yoga et le pilates, présentent de nombreux avantages pour la santé. Cependant, ils sont peu susceptibles d’avoir un impact significatif sur la densité osseuse, car ils ne sollicitent généralement que très peu vos os.

Si vous débutez dans la musculation, vous devrez peut-être commencer par des poids plus légers et vous habituer aux mouvements avant d’augmenter la charge. Et si vous avez besoin d’aide, trouver un professionnel de l’exercice physique dans votre région pourrait être une excellente première étape.

Faire de l’exercice pour la santé osseuse n’est pas compliqué. Quelques séances de musculation (intense) par semaine peuvent faire une grande différence. Si vous craignez d’avoir une faible densité osseuse, parlez-en à votre médecin. Il pourra évaluer si vous devez passer un scanne.

La Conversation Canada

Hunter Bennett ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. La musculation améliore-t-elle la densité osseuse ? – https://theconversation.com/la-musculation-ameliore-t-elle-la-densite-osseuse-263991

Les hivers pourraient disparaître de la région des Grands Lacs

Source: The Conversation – in French – By Marguerite Xenopoulos, Professor and Canada Research Chair in Global Change of Freshwater Ecosystems, Trent University

Il y a cinquante ans, l’hiver ne se contentait pas de visiter les Grands Lacs, il s’y installait. Si l’on clignait des yeux trop lentement, nos cils gelaient. Après une tempête de neige de janvier, au bord du lac Supérieur, tout était blanc et immobile, sauf le lac. Le vent l’avait balayé, révélant des fissures dans la glace qui craquaient.

À Noël, la baie de Saginaw, sur le lac Huron, est habituellement gelée et la glace est suffisamment épaisse pour permettre aux camions de circuler. Des cabanes de pêcheurs ponctuent l’horizon comme de petites villes en bois. Les gens sortent leurs tarières et leurs appâts avant l’aube, et leurs thermos de café noir fument dans le froid.

À l’hiver 2019-2020, la glace ne s’est jamais formée.

L’air humide et gris était légèrement au-dessus de zéro. Le sol était boueux. Les enfants tentaient de faire de la luge sur l’herbe sèche. Les entreprises de location de cabanes sont restées fermées, et les habitants se demandaient si c’était le nouveau visage de l’hiver.

Les conséquences environnementales et sociales du réchauffement hivernal ont un impact sur les lacs du monde entier. Malgré ces signes évidents, la plupart des activités d’observation des Grands Lacs ont lieu pendant les périodes chaudes et calmes.

En tant que professeurs spécialisés dans la recherche sur l’hiver et de membres du Conseil consultatif scientifique des Grands Lacs de la Commission mixte internationale, nous avons élaboré des recommandations fondées sur des données probantes à l’intention des décideurs politiques du Canada et des États-Unis concernant les priorités et la coordination en matière de qualité de l’eau. Pour renforcer la coopération internationale, nous recommandons de mettre en place une surveillance hivernale afin de mieux comprendre les facteurs affectant les lacs.




À lire aussi :
Le rôle invisible des eaux souterraines dans le soutien des lacs


Syndrome du réchauffement hivernal

La région des Grands Lacs est touchée par le « syndrome du réchauffement hivernal », caractérisé par une hausse de la température de l’eau de surface, plus particulièrement pendant la saison froide.

Les hivers y sont de plus en plus chauds et humides, et la couverture glacielle maximale annuelle diminue considérablement. Les conditions hivernales sont également de plus en plus courtes, avec une réduction d’environ deux semaines par décennie depuis 1995.

Dans la région des Grands Lacs, les entreprises, les touristes et les quelque 35 millions d’habitants subissent les effets du réchauffement hivernal tout au long de l’année. Les changements saisonniers entraînent une augmentation du ruissellement des nutriments, favorisant la prolifération d’algues qui gâchent les journées d’été à la plage.

La modification des réseaux alimentaires affecte des espèces importantes sur les plans commercial et culturel, comme le grand corégone. La diminution de la couverture glacielle rend les loisirs et les transports moins sûrs, transformant ainsi l’identité et la culture de la région.

L’hiver, la saison la moins étudiée

Nous risquons de perdre l’hiver dans la région des Grands Lacs avant d’avoir pleinement compris son influence sur l’écosystème et les communautés. Notre analyse des publications récentes montre que l’hiver est peu étudié.

Les chercheurs ont une connaissance limitée des processus physiques, biologiques et biogéochimiques en jeu. Toute modification de ces processus peut avoir des répercussions sur la qualité de l’eau, l’écosystème, la santé humaine, ainsi que sur le bien-être social, culturel et économique de la région. Toutefois, il est difficile de comprendre ces phénomènes sans disposer des données nécessaires.

En vertu de l’Accord relatif à la qualité de l’eau dans les Grands Lacs, les agences canadiennes et américaines surveillent les indicateurs de santé et la qualité de l’eau. L’accord fixe des objectifs pour la qualité de l’eau des Grands Lacs, notamment en ce qui concerne la potabilité, ainsi que la sécurité pour les loisirs et la consommation de poissons et d’espèces sauvages. Cependant, les efforts actuels se concentrent sur les mois chauds.




À lire aussi :
Les lacs ne dorment pas en hiver ! Au contraire, il y a un monde qui vit sous la glace


Étendre la recherche à l’hiver permettrait de combler d’importantes lacunes dans les données. Des études ponctuelles ont déjà montré que l’hiver requiert un suivi systématique. En 2022, une douzaine d’universités et d’agences canadiennes et américaines ont prélevé des échantillons sous la glace dans tout le bassin, dans le cadre du projet Great Lakes Winter Grab.

Les équipes se sont déplacées à pied ou en motoneige et ont percé la glace afin de recueillir des informations sur la vie lacustre et la qualité de l’eau dans les cinq Grands Lacs.

Il en a résulté la création d’un réseau hivernal des Grands Lacs composé d’universitaires et de chercheurs gouvernementaux, afin de mieux comprendre la rapidité avec laquelle les conditions hivernales changent et d’améliorer le partage des données, la coordination des ressources et l’échange de connaissances.

Une série d'images montrant l'étendue de la couverture de glace hivernale dans les Grands Lacs.
Couverture glacielle maximale sur les Grands Lacs de 1973 à 2025. Bien qu’il y ait des variations importantes d’une année à l’autre, la couverture a diminué d’environ 0,5 % par an depuis 1973.
(NOAA Great Lakes Environmental Research Laboratory)

Impacts sur les communautés

Les hivers plus chauds entraînent une hausse des noyades en raison de l’instabilité de la glace. Le ruissellement accru des nutriments favorise la prolifération d’algues nocives et complique le traitement de l’eau potable.

La réduction de la couverture de glace peut prolonger la saison de navigation, mais elle nuit au secteur de la pêche, qui représente 5,1 milliards de dollars américains, par la modification des habitats, l’augmentation des espèces envahissantes et la dégradation de la qualité de l’eau.




À lire aussi :
Les microplastiques contaminent les Grands Lacs. Il faut diminuer la production et la consommation de plastique


L’hiver façonne également l’identité culturelle et les loisirs. Qu’il s’agisse de sorties en raquette ou de patinage sur les lacs gelés, les sports hivernaux laissent de beaux souvenirs aux habitants et aux touristes de la région. La disparition de ces activités pourrait éroder les liens communautaires, les traditions et les moyens de subsistance.

Les changements des conditions hivernales menacent également les traditions et les pratiques culturelles des peuples autochtones. Pour beaucoup d’entre eux, le lien avec leurs terres ancestrales s’exprime à travers la chasse, la pêche, la cueillette et l’agriculture.

La diminution de la quantité totale de neige et l’augmentation de la fréquence des cycles de gel et de dégel entraînent notamment une perte de nutriments dans le sol et peuvent modifier le calendrier saisonnier ainsi que la disponibilité d’espèces végétales importantes sur le plan culturel. L’instabilité de la glace restreint les possibilités de pêche et de transmission des compétences, de la langue et des pratiques culturelles aux générations futures.

un homme vêtu d'habits d'hiver debout sur un lac gelé avec des instruments pour prélever des échantillons.
Des échantillons sont prélevés sur le lac Érié afin d’étudier les conditions hivernales. Cette recherche a été menée dans le cadre du projet Great Lakes Winter Grab en 2022.
(Paul Glyshaw/NOAA)

Recherche scientifique hivernale dans la région des Grands Lacs

La collecte de données par temps froids pose des défis logistiques. Les scientifiques ont besoin d’équipements spécialisés, de personnel qualifié et d’approches coordonnées pour réaliser des observations sûres et efficaces. Le développement de la recherche hivernale dans les Grands Lacs requiert davantage de ressources.

Notre récent rapport met en lumière les lacunes dans les connaissances relatives aux processus hivernaux, aux impacts socio-économiques et culturels des conditions changeantes, ainsi qu’aux moyens de renforcer la science hivernale dans cette région.

Le rapport souligne également les limites infrastructurelles et recommande davantage de formations pour permettre aux scientifiques de travailler en toute sécurité dans des conditions climatiques rigoureuses, à l’image de l’atelier de formation du Réseau de limnologie hivernale de 2024. Une gestion améliorée et un meilleur partage des données sont nécessaires pour maximiser la valeur des informations recueillies.

La science hivernale des Grands Lacs est en plein essor, mais il est essentiel d’accroître les capacités et la coordination pour suivre le rythme des changements qui affectent non seulement les écosystèmes, mais aussi les communautés. Le développement de la science hivernale permettra de préserver la santé et le bien-être des personnes qui vivent, travaillent et se divertissent dans le bassin des Grands Lacs.

La Conversation Canada

Marguerite Xenopoulos reçoit un financement des Chaires de recherche du Canada et du Conseil de recherches en sciences naturelles et en génie.

Michael R. Twiss est affilié à l’Association internationale pour la recherche sur les Grands Lacs.

ref. Les hivers pourraient disparaître de la région des Grands Lacs – https://theconversation.com/les-hivers-pourraient-disparaitre-de-la-region-des-grands-lacs-267790

Quand l’IA devient le consommateur

Source: The Conversation – in French – By Sylvie-Eléonore Rolland, Maître de conférences, Université Paris Dauphine – PSL

L’intelligence artificielle (IA) ne se contente plus de guider nos choix : elle anticipe nos besoins et agit à notre place. En orchestrant décisions et transactions, devient-elle une entité consommatrice ? Que devient notre libre arbitre de consommateur face à un marché piloté par les algorithmes ?

Ce texte est publié dans le cadre des Dauphine Digital Days dont The Conversation France est partenaire.


Alors que les modèles classiques de comportement du consommateur reposent sur l’intention, la préférence et le choix, l’automatisation introduite par l’intelligence artificielle (IA) transforme en profondeur la chaîne décisionnelle. En s’immisçant dans les étapes de reconnaissance des besoins, d’évaluation des alternatives et d’achat, l’IA ne se contente plus de guider – elle agit.

Cette mutation questionne le cadre théorique du consumer agency, l’idée selon laquelle les consommateurs ont la capacité d’agir de manière intentionnelle, de faire des choix et d’exercer une influence sur leur propre vie et sur leur environnement. Ce déplacement progressif du pouvoir décisionnel interroge. Il interpelle la nature même de l’acte de consommer.

L’IA peut-elle être considérée comme une actrice de consommation à part entière ? Sommes-nous encore maîtres de nos choix ou sommes-nous devenus les récepteurs d’un système marchand autonome façonné par l’intelligence artificielle ?

Personnalisation de l’expérience

Les algorithmes prédictifs, programmes qui anticipent des résultats futurs à partir de données passées, sont aujourd’hui des acteurs incontournables de l’environnement numérique, présents sur des plateformes, telles que Netflix, Amazon, TikTok ou Spotify. Conçus pour analyser les comportements des utilisateurs, ces systèmes visent à personnaliser l’expérience en proposant des contenus et des produits adaptés aux préférences individuelles. En réduisant le temps de recherche et en améliorant la pertinence des recommandations, ils offrent une promesse d’assistance optimisée.

Toutefois, cette personnalisation soulève une question centrale : ces algorithmes améliorent-ils l’accès aux contenus et aux produits pertinents, ou participent-ils à un enfermement progressif dans des habitudes de consommation préétablies ?




À lire aussi :
Sommes-nous prêts à confier nos décisions d’achat à une IA ?


En favorisant les contenus similaires à ceux déjà consultés, les systèmes de recommandation tendent à renforcer les préférences préexistantes des utilisateurs, tout en restreignant la diversité des propositions auxquelles ces derniers sont exposés. Ce phénomène, identifié sous le terme de « bulle de filtre », limite l’ouverture à des perspectives nouvelles et contribue à une uniformisation des expériences de consommation.

L’utilisateur se trouve ainsi progressivement enfermé dans un environnement façonné par ses interactions antérieures, au détriment d’une exploration libre et fortuite, le « faire les boutiques » d’autrefois.

Glissement progressif de l’IA

Ce glissement remet en question l’équilibre entre l’intelligence artificielle en tant qu’outil d’assistance et son potentiel aliénant, dans la mesure où la liberté de choix et l’autonomie décisionnelle constituent des dimensions fondamentales du bien-être psychologique et de la construction identitaire.

Il soulève également des enjeux éthiques majeurs : dans quelle mesure l’expérience de consommation est-elle encore véritablement choisie, lorsqu’elle est orientée, voire imposée, par des algorithmes, souvent à l’insu des consommateurs, notamment ceux dont la littératie numérique demeure limitée ?

Des algorithmes qui deviennent cibles de la publicité

L’optimisation des publicités et des publications en ligne repose de plus en plus sur des critères imposés par les plateformes.

Cette tendance est particulièrement visible sur des plateformes comme YouTube, où les vidéos adoptent systématiquement des codes visuels optimisés : visages expressifs, polices de grande taille, couleurs vives. Ce format ne résulte pas d’une préférence spontanée des internautes, mais découle des choix algorithmiques qui privilégient ces éléments pour maximiser le taux de clics.

De manière similaire, sur les réseaux sociaux, les publications adoptent des structures spécifiques, phrases courtes et anecdotes engageantes, comme sur X, où les utilisateurs condensent leurs messages en formules percutantes pour maximiser les retweets. Cela ne vise pas nécessairement à améliorer l’expérience de lecture, mais répond aux critères de visibilité imposés par l’algorithme de la plateforme.

Ainsi, l’objectif des annonceurs ne se limite plus à séduire un public humain, mais vise principalement à optimiser la diffusion de leurs contenus en fonction des impératifs algorithmiques. Cette dynamique conduit à une homogénéisation des messages publicitaires, où l’innovation et l’authenticité tendent à s’effacer au profit d’une production standardisée répondant aux logiques des algorithmes.

Influence sur les préférences des consommateurs

Ces formats prédominants sont-ils uniquement imposés par les algorithmes, ou reflètent-ils les attentes des consommateurs ? En effet, si les algorithmes sont conçus pour maximiser l’engagement, cela suppose qu’ils s’appuient en partie sur les comportements et les préférences des utilisateurs. Pourtant, la véritable interrogation réside sans doute dans la manière dont les algorithmes influencent, par des expositions répétées, nos propres préférences, jusqu’à redéfinir ce que nous percevons comme attractif ou pertinent.

L’évolution de l’intelligence artificielle a donné naissance aux systèmes d’achat autonomes, qui prennent des décisions d’achat en toute indépendance. Ces systèmes reposent sur deux types d’agents intelligents : les agents verticaux et les agents horizontaux.

Les agents verticaux sont des IA spécialisées dans des domaines précis. Ils optimisent la gestion des achats en analysant des besoins spécifiques. Par exemple, les réfrigérateurs « intelligents » scannent leur contenu, identifient les produits manquants et passent commande automatiquement avant même que les consommateurs ne décident eux-mêmes de passer commande.

Les agents horizontaux coordonnent quant à eux plusieurs domaines d’achat. Des assistants, comme Alexa et Google Assistant, analysent les besoins en alimentation, mobilité et divertissement pour proposer une consommation intégrée et cohérente. L’interaction multi-agents permet ainsi d’accroître l’autonomie des systèmes d’achat.

Les agents verticaux assurent la précision et l’optimisation des achats, tandis que les agents horizontaux garantissent la cohérence des décisions à l’échelle globale. Cette synergie préfigure un avenir où la consommation devient totalement ou partiellement automatisée et prédictive. Progressivement, nous ne décidons plus quand acheter ni même quoi acheter : ces systèmes autonomes agissent pour nous, que ce soit pour notre bien ou à notre détriment !

Arte, 2024.

Qui est le principal agent de décision ?

L’accès à l’information et l’instantanéité offertes par l’IA aurait fait de nous des consommateurs « augmentés ». Pourtant, son évolution rapide soulève désormais une question fondamentale : sommes-nous encore les véritables décideurs de notre consommation, ou sommes-nous progressivement relégués à un rôle passif ? L’IA ne se limite plus à nous assister ; elle structure désormais un écosystème au sein duquel nos décisions tendent à être préprogrammées par des algorithmes, dans une logique d’optimisation.

Une telle dynamique soulève des interrogations profondes quant à l’avenir des modes de consommation : l’IA est-elle en passe de devenir le véritable consommateur, tandis que l’humain se limiterait à suivre un flux prédéfini ? Assistons-nous à l’émergence d’un marché où les interactions entre intelligences artificielles supplantent celles entre individus ?

L’avenir du libre arbitre

Si ces technologies offrent un confort indéniable, elles posent également la question du devenir de notre libre arbitre et de notre autonomie en tant que consommateurs, citoyens et humains. Dès lors, ne sommes-nous pas à l’aube d’une révolution où l’humain, consommateur passif, s’efface au profit d’une économie pilotée par des systèmes de consommation intelligents autonomes ?

Plus qu’une volonté de contrôle total des technologies qui freine l’innovation, c’est peut-être notre propre autonomie qu’il convient de repenser à l’aune de l’émergence de ces systèmes. Il s’agit alors de construire, selon la perspective des « technologies de soi » de Michel Foucault, des pratiques par lesquelles l’individu œuvre à sa propre transformation et à son émancipation des diverses formes de domination algorithmique.

x.
Fourni par l’auteur

The Conversation

Sylvie-Eléonore Rolland ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Quand l’IA devient le consommateur – https://theconversation.com/quand-lia-devient-le-consommateur-269765

Commerce, résilience, durabilité : la recette du G20 pour l’Afrique

Source: The Conversation – in French – By Wandile Sihlobo, Senior Fellow, Department of Agricultural Economics, Stellenbosch University

Le groupe de travail sur les systèmes alimentaires et agricoles durables du Business 20, un groupe consultatif du G20, a approuvé trois principes qui, selon lui, contribueront à la mise en place de systèmes alimentaires et d’une agriculture durables. Ces principes sont l’augmentation des échanges commerciaux, la résilience des chaînes d’approvisionnement et les pratiques agricoles durables.

L’économiste agricole Wandile Sihlobo explique ces trois principes et comment les pays africains peuvent les mettre à profit.

Qu’est-ce que la sécurité alimentaire mondiale ? En quoi diffère-t-elle de la pauvreté alimentaire ?

La sécurité alimentaire mondiale est un concept plus large. Elle vise à relever les défis liés à l’accès à la nourriture, à la nutrition, à la durabilité et à l’accessibilité financière. Elle cherche aussi à renforcer la coopération entre les pays – notamment les membres du G20 – pour réduire la pauvreté, à la fois dans le monde, au niveau national et au sein des ménages.

Pour atteindre cet objectif, chaque pays doit adapter ses politiques agricoles. Cela passe par une hausse de la production, une approche respectueuse de l’environnement et une réduction des obstacles au commerce.

Les pays qui ne produisent pas assez doivent pouvoir importer de la nourriture à un coût abordable. Cela implique de faciliter la logistique mondiale, de supprimer certains droits de douane et de lever, dans certains cas, les interdictions d’exportation. En 2023, par exemple, l’Inde a interdit l’exportation du riz non basmati, ce qui a provoqué une hausse des prix mondiaux.

C’est pour cette raison que je défends l’approche consistant à « assurer la sécurité alimentaire grâce au commerce ». Dans un monde où les échanges sont souvent entravés, cette approche permet de réduire les coûts et d’améliorer le niveau de vie, notamment dans les régions les plus pauvres principalement le Moyen-Orient et l’Asie.

Comment l’augmentation des échanges commerciaux, la résilience des chaînes d’approvisionnement et les pratiques agricoles durables peuvent-elles renforcer la sécurité alimentaire ?

Ces leviers sont au cœur de la réduction des coûts. Si les obstacles au commerce (tarifs douaniers, barrières non tarifaires ou interdictions d’exportation) sont allégés, il devient plus facile et moins cher d’acheminer les denrées des zones de production vers les zones de consommation à un prix abordable.

Des chaînes d’approvisionnement résilientes signifient également que les denrées alimentaires peuvent être produites, transformées et acheminées vers les points de consommation avec moins d’obstacles, même en cas de catastrophes naturelles et de conflits.

Quant aux pratiques agricoles durables, elles sont essentielles au système alimentaire mondial. Cela ne signifie pas qu’il faut abandonner les semences améliorées, la recherche génétique ou les intrants chimiques. Il s’agit principalement de mieux les utiliser.

J’ai remarqué une tendance inquiétante à l’activisme qui vise à éliminer les intrants agricoles, une voie qui conduirait à une baisse de la productivité et de la production agricoles, et finalement à une aggravation de la faim. La clé réside dans une utilisation sûre et optimale de ces intrants.

Lors des récentes manifestations agricoles dans l’Union européenne, l’approche réglementaire de l’UE en matière de pratiques agricoles durables a été l’un des principaux risques soulevés par les agriculteurs. Ils ont cité le Pacte vert pour l’Europe, qui vise à accélérer la réduction de l’utilisation d’intrants tels que les pesticides, les engrais et certains autres produits chimiques, qui sont essentiels à l’augmentation de la production.

À mon avis, le G20 devrait se prémunir contre les initiatives militantes qui mettent en danger la sécurité alimentaire mondiale.

Quelles politiques spécifiques les pays, en particulier les nations africaines, devraient-ils mettre en place pour garantir le succès de ces principes ?

L’Afrique du Sud et l’Union africaine, qui sont toutes deux membres du G20, devraient promouvoir trois grandes interventions dans le domaine de l’agriculture afin de mettre en œuvre les trois principes du G20 et de stimuler la production alimentaire au profit du continent africain.

1. Agriculture intelligente face au climat

Tout d’abord, il convient d’appeler fermement au partage des connaissances sur les pratiques agricoles intelligentes face au climat. Il s’agit de nouvelles innovations et méthodes agricoles qui minimisent les dommages causés aux cultures par les catastrophes climatiques telles que la sécheresse et les vagues de chaleur. Cela est important car l’Afrique est très vulnérable aux catastrophes naturelles.

Pour que l’agriculture africaine puisse se développer, les gouvernements doivent mettre en place des politiques coordonnées sur la manière de répondre aux catastrophes. Ces réponses doivent inclure tout ce dont les pays africains ont besoin pour atténuer les catastrophes climatiques, s’adapter au changement climatique et se remettre rapidement lorsque des catastrophes surviennent.

2. Réforme commerciale

Deuxièmement, l’Afrique doit faire pression pour une réforme du système commercial mondial et améliorer la sécurité alimentaire en Afrique grâce au commerce. L’Afrique du Sud bénéficie déjà d’un meilleur accès au commerce agricole avec plusieurs économies du G20 grâce à des droits de douane réduits et à un accès en franchise de droits.

Tous les membres du G20 ont intérêt à défendre un commerce ouvert entre les nations. Cela permet d’acheter et de vendre des produits agricoles à moindre coût. Ce qui est essentiel dans un contexte mondial où certains pays adoptent une attitude plus conflictuelle en matière de commerce.

Les pays africains dont l’agriculture est moins productive, avec des rendements généralement faibles ou médiocres, pourraient ne pas bénéficier autant, à court terme, d’un commerce ouvert. Ils en tireront toutefois profit à long terme.

3. Améliorer l’accès aux engrais

Troisièmement, l’Afrique doit continuer à prioriser la production et le commerce des engrais. Dans la plupart des pays d’Afrique subsaharienne, l’accès et l’usage des engrais restent faibles. Or, ils sont essentiels pour accroître la production et réduire l’insécurité alimentaire. L’accès à des financements abordables est également un défi pour l’agriculture africaine.

Il est donc essentiel de relier les discussions sur les engrais aux investissements dans les industries de réseau telles que les routes et les ports. Disposer d’engrais est une chose, mais leur acheminement vers les zones agricoles est difficile dans certains pays et augmente les coûts pour les agriculteurs. Dans ce cadre, le G20 devrait encourager la production locale.

La production d’engrais sur le continent atténuerait l’impact négatif des chocs mondiaux sur les prix. Elle permettrait également aux pays africains les plus vulnérables d’acheter et de distribuer des engrais à un prix abordable.

Comment concilier productivité agricole et réduction de l’impact climatique ?

Nous devons utiliser la technologie pour nous adapter au changement climatique plutôt que de diaboliser l’utilisation des produits agrochimiques et la sélection des semences, qui est certainement une tendance à la hausse dans certaines régions d’Afrique du Sud. Si nous utilisons des variétés de semences à haut rendement, des engrais et des produits agrochimiques pour lutter contre les maladies, nous pouvons alors cultiver une superficie relativement plus petite et compter sur un rendement suffisant.

Mais si nous réduisons considérablement ces intrants, nous dépendons davantage de l’expansion de la superficie que nous cultivons. Cultiver plus de terres signifie nuire à l’environnement. L’accent devrait être mis sur l’utilisation optimale et sûre des intrants agricoles afin d’améliorer la production alimentaire. C’est la clé pour parvenir à la sécurité alimentaire mondiale.

Le G20 a un rôle à jouer pour garantir que nous nous dirigeons vers un monde meilleur. Les principes agricoles évoqués ici offrent une feuille de route concrète pour construire un monde meilleur avec plus de sécurité alimentaire.

The Conversation

Wandile Sihlobo is the Chief Economist of the Agricultural Business Chamber of South Africa (Agbiz) and a member of the Presidential Economic Advisory Council (PEAC).

ref. Commerce, résilience, durabilité : la recette du G20 pour l’Afrique – https://theconversation.com/commerce-resilience-durabilite-la-recette-du-g20-pour-lafrique-269627

Enquête auprès de 2 400 professeurs d’EPS : « Nos élèves manquent de souffle et de force »

Source: The Conversation – in French – By David Matelot, Enseignant d’EPS, docteur en physiologie de l’exercice, Université Bretagne Sud (UBS)

Les performances des élèves français à un test d’endurance cardio-respiratoire, le Navette 20 mètres, ont diminué de 18 % entre 1999 et 2022. Konstantin Mishchenko/Unsplash, CC BY

Alors que les performances à l’endurance des élèves ont chuté de près de 18 % entre 1999 et 2022, l’éducation nationale commence à mesurer la condition physique des enfants en classe de 6e. Une vaste enquête menée auprès de 2 400 enseignants d’éducation physique et sportive révèle que ceux-ci constatent ce déclin, mais peinent à en faire une priorité, faute de temps, de moyens et de formation. Pourtant, améliorer l’endurance cardiorespiratoire et la force musculaire à l’école apparaît aujourd’hui essentiel pour prévenir les risques cardio-vasculaires et poser les bases d’habitudes durables. Une équipe de chercheurs propose cinq pistes pour redresser la barre.


Les performances des élèves français au Navette 20 mètres, un test d’endurance cardio-respiratoire, ont diminué d’environ 18 % entre 1999 et 2022. Pour comprendre cette évolution, nous avons interrogé environ 2 400 enseignants d’éducation physique et sportive (EPS) en collège et lycée. Plus de 90 % savent que l’endurance cardiorespiratoire et la force musculaire sont associées à une meilleure santé physique.

Parmi les répondants, 91 % considèrent que le niveau d’endurance des élèves a baissé ces vingt dernières années, et 66 % jugent qu’il en va de même pour leur force.

Travailler ces qualités physiques n’est pas une priorité en EPS

Cependant, comme le montrent les réponses ci-dessus, le développement de ces deux qualités physiques est un objectif plutôt secondaire de leurs cours. De plus, 47 % des enseignants considèrent que les objectifs de l’EPS dans les programmes officiels ne donnent pas une place prioritaire au développement de ces qualités, ce qui freine la prise en compte de cette problématique.

Le développement de la condition physique des élèves en EPS est difficile parce qu’il nécessite pour l’enseignant d’EPS de concevoir des cours adaptés à trois caractéristiques qui varient au sein des élèves d’une même classe : leurs niveaux de force et d’endurance cardiorespiratoire, leurs stades de croissance et de maturation, et leurs motifs d’agir.

Les résultats de ce questionnaire nous ont amenés à développer cinq pistes pour le développement des qualités d’endurance cardiorespiratoire et de force musculaire des collégiens et des lycéens.

Piste 1 : Proposer des pratiques « hybrides » motivantes pour tous les élèves

« La question des qualités physiques vient buter souvent sur le manque d’attrait pour les élèves d’un engagement dans des efforts […] il faut être habile pour habiller les situations et les rendre ludiques tout en travaillant les qualités physiques. »

Cette réponse illustre une difficulté importante à laquelle les enseignants d’EPS doivent faire face, qui semble également vraie chez les adultes comme le montrent les travaux sur le « syndrome du paresseux ».

Plus spécifiquement pour l’EPS, il semble important de s’intéresser au plaisir et au déplaisir ressentis par les élèves, car ces émotions influencent la construction d’habitudes de pratiques physiques durables. La difficulté principale ici est qu’un même exercice proposé à l’ensemble de la classe va susciter de l’intérêt et du plaisir chez certains élèves mais du désintérêt voire du déplaisir pour d’autres. Chaque élève peut en effet se caractériser par des « motifs d’agir » variés : affronter en espérant gagner, progresser pour soi-même, faire en équipe, vivre des sensations fortes…

Petites filles gym
Rendre les exercices attractifs est essentiel pour motiver les élèves.
Brett Wharton/Unsplash, CC BY

Les exercices dits « hybrides » sont une solution développée par des enseignants d’EPS : le principe est de proposer la même situation à tous les élèves, dans laquelle ils peuvent choisir leur objectif pour que chacun s’engage selon sa source de motivation privilégiée. Le « Parkour Gym » est une forme de pratique scolaire de la gymnastique artistique où les élèves composent un parcours en juxtaposant plusieurs figures d’acrobaties, en choisissant le niveau de difficulté. L’objectif pour tous est de réaliser ce parcours le plus rapidement possible, tout en réalisant correctement les figures acrobatiques choisies, qui rapportent des points selon leurs difficultés.

Cette pratique permet à chaque élève de se focaliser sur sa source de motivation privilégiée : améliorer son temps ou son score acrobatique, avoir un score final (temps et difficultés) le plus élevé possible, ou encore travailler spécifiquement la réalisation d’une acrobatie perçue comme valorisante ou génératrice de sensations fortes. Le travail ainsi réalisé en gymnastique, de par le gainage et les impulsions nécessaires, développe le système musculaire.

Piste 2 : Augmenter les temps de pratique d’EPS dans l’établissement

Le premier frein rapporté par les enseignants est le manque de temps en cours d’EPS, notamment au regard des multiples objectifs à travailler. Par exemple en Lycée Général et Technologique les programmes d’EPS contiennent cinq objectifs à travailler, en deux heures hebdomadaires. Une première solution qui apparaît serait d’augmenter le temps d’EPS obligatoire pour tous les élèves. Ou encore de prévoir des dispositifs de « soutien en EPS » avec des moyens supplémentaires dédiés aux élèves en difficulté dans cette discipline.

Des solutions existent également à moyens constants. La première possibilité est celle de l’association sportive scolaire qui existe dans chaque établissement, et qui propose des activités physiques et sportives aux élèves volontaires. Cette association est animée par les enseignants d’EPS de l’établissement, cette activité fait partie de leur temps de travail. Si les chiffres du graphique ci-dessous sont encourageants, il semble possible d’élargir encore davantage ces offres dans les collèges et lycées de France.

D’autres possibilités existent. L’équipe EPS du collège Les Hautes Ourmes (académie de Rennes) propose un dispositif intéressant, sur le modèle de ce qui est proposé en natation pour les non-nageurs, avec trois enseignants au lieu de deux qui interviennent sur deux classes en même temps. Ce fonctionnement permet de constituer des plus petits groupes de besoin encadrés par chaque enseignant, et de travailler une qualité physique ciblée prioritairement pour ce groupe (endurance cardiorespiratoire, vitesse, force et endurance musculaire, coordination, équilibre).

Enfin, l’académie de Limoges a mis en place des sections sportives scolaires « Sport-Santé ». Ce n’est plus la performance sportive qui est visée mais la recherche d’un bien-être physique, psychologique et social. La section donne l’opportunité aux élèves volontaires de s’impliquer dans la gestion de leur vie physique, en les sensibilisant à l’importance de la pratique sportive.

L’approche est axée sur la valorisation des réussites et de l’estime de soi, et propose des modalités de pratique novatrices et ludiques, adaptées aux spécificités des élèves. L’objectif est donc de donner ou de redonner le goût de la pratique physique à ces élèves, étape indispensable vers un mode de vie actif au-delà de l’École. Ces sections font partie, avec d’autres dispositifs, d’un réel système mis en place pour développer les qualités physiques de leurs élèves à différents niveaux. Nous espérons que cette démarche pourra se généraliser à d’autres Académies.

Piste 3 : Intégrer le travail des qualités aérobie et de force aux cours d’EPS

Les réponses aux deux questions ci-dessus indiquent qu’il serait intéressant de prévoir pendant les cours d’EPS plus de situations qui travaillent les qualités d’endurance cardiorespiratoire et de force musculaire des élèves. Celles-ci peuvent être stimulées et développées pendant toute la durée du cursus collège-lycée. Il est possible de développer ces qualités physiques pendant la pratique des activités physiques et sportives au programme en les intensifiant, ou alors lors de temps dédiés comme pendant un échauffement renforcé ou des exercices intermittents de haute intensité.

Piste 4 : Utiliser des tests physiques pour l’EPS

Parmi les répondants, 60 % des enseignants disent faire un test d’endurance cardio-respiratoire au moins une fois par an à leurs élèves, ce qui semble déjà élevé mais pourrait encore être généralisé. Pour la force seulement, 14 % des enseignants disent que leurs élèves font un test au moins une fois par an, et ils sont 63 % à ne jamais faire de tests de force pendant leur scolarité dans l’établissement.

Les tests physiques sont globalement assez peu exploités en France. En effet, aucune batterie de tests ni base de données nationale n’existe en France contrairement à d’autres pays (par exemple, les programmes Fitnessgram aux États-Unis, Youth-Fit en Irlande, ou Slofit en Slovénie). Mesurer les qualités physiques par des tests répétés met en évidence les progrès des élèves et améliore leur connaissance de soi, ces tests peuvent être un outil pour l’EPS.

Piste 5 : Renforcer la formation des enseignants

Globalement, les enseignants sont intéressés par une formation sur ce thème (cf. graphique ci-dessous). Si environ 80 % des enseignants disent avoir été suffisamment formés pour évaluer (83 %) et développer (78 %) l’endurance cardio-respiratoire de leurs élèves, concernant la force, ces chiffres descendent à 49 % pour son évaluation et à 58 % pour son développement.

Plusieurs études démontrent que les niveaux d’aérobie et de force des élèves sont liées à leurs risques de développer des pathologies cardio-vasculaires plus tard dans la vie, et plus globalement à leur espérance de vie. Cette association n’est connue que par 41 % des enseignants pour l’aérobie et par 22 % pour la force. La formation continue des enseignants d’EPS dans ce domaine pourrait donc également être renforcée.


Les auteurs tiennent à remercier François Carré, professeur émérite au CHU de Rennes, pour sa contribution à la rédaction de cet article.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Enquête auprès de 2 400 professeurs d’EPS : « Nos élèves manquent de souffle et de force » – https://theconversation.com/enquete-aupres-de-2-400-professeurs-deps-nos-eleves-manquent-de-souffle-et-de-force-266684

L’opéra aux Amériques, un héritage européen revisité par les identités culturelles locales

Source: The Conversation – in French – By Frédéric Lamantia, Docteur en géographie et maître de conférences, UCLy (Lyon Catholic University)

Le Palais des beaux-arts de Mexico (en espagnol : Palacio de Bellas Artes) est le premier opéra de Mexico. Sa construction fut achevée en 1934. Xavier Quetzalcoatl Contreras Castillo , CC BY-SA

L’opéra s’est enraciné sur le continent américain en hybridant répertoires et techniques d’outre-Atlantique avec des récits, des rythmes et des imaginaires empruntés aux populations autochtones. Nous poursuivons ici notre série d’articles « L’opéra : une carte sonore du monde ».


Ne cherchant ni à copier ni à rompre avec l’histoire de l’opéra en Europe, l’histoire de l’opéra aux Amériques est plutôt celle d’un long processus d’acclimatation. La circulation des artistes et les innovations esthétiques y rencontrent des terrains sociaux, politiques et économiques spécifiques selon les pays. Si depuis le XVIIe siècle, Christophe Colomb a inspiré de nombreux opéras, cet art est aujourd’hui présent sur tout le continent où il met en exergue des éléments locaux du patrimoine culturel conjugués avec la matrice européenne.

En Amérique du Nord, et notamment aux États-Unis, l’art lyrique trouve ses origines dans les ballad operas anglais du XVIIIe siècle joués dans les premiers théâtres à Philadelphie ou à New York.

Au XIXe siècle, l’opéra s’implante comme un divertissement « importé » et rencontre un certain succès dont bénéficient l’Academy of Music (l’Opéra de New York) ou le Metropolitan Opera tandis que la Nouvelle-Orléans, foyer francophone, sert de tête de pont aux opéras français mais aussi italiens. Ces derniers, apportés par nombre d’immigrants en provenance de Rome, de Naples ou de Palerme, ont nécessité la construction de théâtres, comme celui de San Francisco.

Spécificités états-uniennes

Au XXe siècle, l’art lyrique possède ses hauts lieux aux États-Unis, tels que le Metropolitan Opera (Met) qui s’impose comme le champion des créations nationales impliquant des spécificités états-uniennes quant aux sujets, aux styles et aux voix.

La quête d’une couleur « nationale » passe par le recours à des matériaux amérindiens puis par l’intégration de langages musicaux afro-américains comme les spirituals, le jazz, le ragtime, le blues, jusqu’aux sujets explicitement liés à l’esclavage, à la ségrégation et aux droits civiques.

De Porgy and Bess à X : The Life and Times of Malcom X ou The Central Park Five, l’opéra devient un miroir social avec des œuvres qui se fondent dans le paysage culturel, sa grande diversité et les conséquences de celle-ci. Le progrès technique s’invite aussi à l’opéra avec des œuvres comme Le téléphone, opéra comique de Menotti. Parallèlement, le langage musical évolue, porté par le néoromantisme de Barber, la satire politico-sociale de Blitzstein, le minimalisme de Glass ou d’Adams.

En Amérique du Nord, une économie fragile

Sur le plan économique, l’écosystème lyrique états-unien comme canadien combine recettes propres, dons privés et mécénat, le rendant particulièrement vulnérable à des crises, comme celle survenue lors de l’épidémie de Covid qui a vu ses publics se contracter, tandis que les coûts de production restaient élevés. Le marketing de l’opéra innove sans cesse, contraint à une nécessaire démocratisation garantissant le renouvellement de ses publics, avec des représentations dans des lieux insolites – Ikea à Philadelphie –, et à une digitalisation de l’espace lyrique et de sa programmation.

Si des réseaux efficaces, comme Opera America ou Opera Europa, facilitent communication, diffusion et levée de fonds, d’autres solutions ont pu voir le jour pour sécuriser l’activité lyrique aux États-Unis, comme cet accord pluriannuel signé entre le Met et l’Arabie saoudite.

Hybridations en Amérique centrale

En Amérique centrale, l’art lyrique s’inscrit également dans l’espace urbain comme en témoigne le Palacio de Bellas Artes à Mexico. Conçu en 1901 et inauguré en 1934, ce bâtiment fusionne art nouveau par son extérieur en marbre et art déco pour l’intérieur de la salle, décorée avec des fresques monumentales. Le modèle architectural comme une partie du répertoire – Mozart, Strauss, Puccini ou Donizetti – sont européens, mais l’institution a aussi servi de carrefour aux arts mexicains à l’image du Ballet folklorique d’Amalia Hernández ou de créations de compositeurs locaux comme Ibarra, Catán ou Jimenez.

Le rideau de scène représentant les volcans Popocatépetl et Iztaccíhuatl symbolise ce lien entre opera house « à l’européenne » et imaginaires locaux. Dans cette zone géographique, l’hybridation architecturale et artistique s’opère dans les institutions nationales avec une volonté d’articuler répertoire européen et identité culturelle locale, tant du point de vue musical, iconographique que chorégraphique.

Offenbach-mania au Brésil

L’Amérique du Sud a connu un développement de son territoire lyrique dans les grandes métropoles, mais également dans des lieux insolites comme à Manaus, au Brésil, en pleine Amazonie, où le théâtre d’opéra était la sortie privilégiée des riches industriels producteurs d’hévéa tandis que la bourgeoisie de Sao Paulo, souvent proche de l’industrie du café se retrouvait en son opéra.

L’import d’œuvres européennes, notamment d’Offenbach ou de Puccini dont le succès fulgurant a inspiré de nombreux compositeurs locaux, a façonné le paysage lyrique sud-américain. On note que dans les années 1860-1880, Rio connaît une véritable Offenbach-mania et devient un creuset pour des hybridations diverses : de nombreuses œuvres sont traduites en portugais tandis que des troupes francophones sont régulièrement accueillies.

Dans le même temps se développent des parodies brésiliennes qui, sans copier Offenbach, procèdent à une « brésilianisation » du style par l’insertion de danses et rythmes afro-brésiliens – polca-lundu, cateretê, samba de roda – et par l’apparition de la capoeira sur scène. Naît alors un débat, ressemblant mutatis mutandis à la « querelle des Bouffons » française, opposant « art national » et « opérette importée » et aboutissant parfois à une « parodie de parodie » d’Offenbach !

Ces échanges lyriques montrent que les Amériques ne se contentent pas d’importer de l’opéra occidental, mais qu’elles transforment puis réémettent des œuvres vers l’Europe, enrichies d’un apport exotique.

En Argentine, l’opéra comme symbole de réussite sociale

En Argentine, Puccini triomphe en 1905 à Buenos Aires alors qu’il vient superviser la nouvelle version d’Edgar. Il consolidera sa notoriété grâce à ses succès sur les scènes latino-américaines avant de livrer en 1910, à New York, La fanciulla del West(la Fille du Far-West), western lyrique basé sur l’imaginaire américain. Dans une capitale marquée par une importante immigration italienne initiée dès les années 1880, l’opéra reste un symbole de réussite sociale.

Le Teatro Colon, érigé en 1908, opère une synthèse architecturale entre néo-Renaissance italienne et néo-baroque français, agrémentée de touches Art nouveau. Dotée d’une excellente acoustique et accessible sur le plan tarifaire, la salle s’impose comme un centre lyrique important sur le continent. L’art lyrique argentin reste ouvert à de nombreux sujets, comme en témoigne l’opéra Aliados (2013), d’Esteban Buch et Sebastian Rivas, évoquant les liens entre Margaret Thatcher et Augusto Pinochet, alliés à l’époque de la guerre des Malouines en 1982.

On trouve ainsi des traits communs à l’art lyrique sud-américain, associant grandes maisons emblématiques, appropriations esthétiques locales et coopérations internationales par-delà une vulnérabilité économique due à sa dépendance au mécénat.

Au Chili et en Bolivie, des lieux d’échanges et de métissage

Le cas du Teatro Municipal de Santiago inauguré en 1857 avec une architecture néoclassique française et toujours intact malgré de nombreux séismes, a été victime de crises budgétaires récurrentes mais développe depuis 2023 un partenariat avec l’Opéra National de Paris.

L’objectif est de permettre une circulation des savoir-faire au sein d’une coopération Sud-Nord au service de la formation de talents locaux. Le Chili accueille également un théâtre musical ouvert à des sujets politiques.

En Bolivie, le théatre Grand Mariscal de Ayacuchode, dans la ville de Sucre, construit en 1894 sur un modèle inspiré de la Scala pour accueillir des opérettes et des zarzuelas est devenu malgré son inachèvement un lieu patrimonial mêlant histoire locale et pratiques lyriques au croisement de l’Europe et des cultures andines.

Par ailleurs, ce métissage a donné naissance à des œuvres parfois anciennes comme cet opéra baroque datant de 1740 écrit par un indigène évangélisé en bésiro, dialecte ancien en voie de disparition.

De New York à Buenos Aires, l’opéra aux Amériques s’est bâti une identité singulière par sa capacité à assimiler apports européens et patrimoine culturel autochtone. Sur l’héritage des techniques et du répertoire européen sont venus se greffer des spécificités culturelles locales issues de traditions propres aux indiens, aux créoles ou aux populations afro-américaines. Loin d’un modèle importé à l’identique, il constitue un « palimpseste lyrique » où se côtoient Puccini, Offenbach, jazz et capoeira. Les voix de l’Amérique sont devenues l’écho d’un territoire lyrique complexe, où traditions culturelles et mémoires collectives s’incarnent dans un patrimoine musical et architectural singulier.

The Conversation

Frédéric Lamantia ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. L’opéra aux Amériques, un héritage européen revisité par les identités culturelles locales – https://theconversation.com/lopera-aux-ameriques-un-heritage-europeen-revisite-par-les-identites-culturelles-locales-268684

L’intelligence artificielle peut-elle améliorer la prévision météorologique ?

Source: The Conversation – in French – By Laure Raynaud, Météorologiste, Météo France

L’intelligence artificielle a déjà impacté de nombreux secteurs, et la météorologie pourrait être le suivant. Moins coûteux, plus rapide, plus précis, les modèles d’IA pourront-ils renouveler les prévisions météorologiques ?


Transport, agriculture, énergie, tourisme… Les prévisions météorologiques jouent un rôle essentiel pour de nombreux secteurs de notre société. Disposer de prévisions fiables est donc indispensable pour assurer la sécurité des personnes et des biens, mais également pour organiser les activités économiques. Dans le contexte du changement climatique, où les épisodes de très fortes pluies, de vagues de chaleur ou de mégafeux ne cessent de se multiplier, les populations sont d’autant plus vulnérables, ce qui renforce le besoin en prévisions précises à une échelle très locale.

L’élaboration d’une prévision météorologique est un processus complexe, qui exploite plusieurs sources de données et qui demande une grande puissance de calcul. Donner du sens et une utilité socio-économique à la prévision pour la prise de décision est aussi un enjeu majeur, qui requiert une expertise scientifique et technique, une capacité d’interprétation et de traduction de l’information en services utiles à chaque usager. L’intelligence artificielle (IA) peut aider à répondre à ces défis.

L’IA : un nouveau paradigme pour la prévision météorologique ?

Comme on peut le lire dans le rapport Villani sur l’IA, rendu public en mars 2018, « définir l’intelligence artificielle n’est pas chose facile ». On peut considérer qu’il s’agit d’un champ pluridisciplinaire qui recouvre un vaste ensemble de méthodes à la croisée des mathématiques, de la science des données et de l’informatique. L’IA peut être mise en œuvre pour des tâches variées, notamment de la prévision, de la classification, de la détection ou encore de la génération de contenu.

Les méthodes d’IA parmi les plus utilisées et les plus performantes aujourd’hui fonctionnent sur le principe de l’apprentissage machine (machine learning) : des programmes informatiques apprennent, sur de grands jeux de données, la meilleure façon de réaliser la tâche demandée. Les réseaux de neurones profonds (deep learning) sont un type particulier d’algorithmes d’apprentissage, permettant actuellement d’atteindre des performances inégalées par les autres approches. C’est de ce type d’algorithme dont il est question ici.

La prévision météorologique repose actuellement, et depuis plusieurs décennies, sur des modèles qui simulent le comportement de l’atmosphère. Ces modèles intègrent des lois physiques, formulées pour calculer l’évolution des principales variables atmosphériques, comme la température, le vent, l’humidité, la pression, etc. Connaissant la météo du jour, on peut ainsi calculer les conditions atmosphériques des prochains jours. Les modèles météorologiques progressent très régulièrement, en particulier grâce à l’utilisation de nouvelles observations, satellitaires ou de terrain, et à l’augmentation des ressources de calcul.

La prochaine génération de modèles aura pour objectif de produire des prévisions à un niveau de qualité et de finesse spatiale encore plus élevé, de l’ordre de quelques centaines de mètres, afin de mieux appréhender les risques locaux comme les îlots de chaleur urbains par exemple. Cette ambition soulève néanmoins plusieurs challenges, dont celui des coûts de production : effectuer une prévision météo requiert une puissance de calcul très importante, qui augmente d’autant plus que la précision spatiale recherchée est grande et que les données intégrées sont nombreuses.

Gagner en temps et en qualité

Cette étape de modélisation atmosphérique pourrait bientôt bénéficier des avantages de l’IA. C’est ce qui a été démontré dans plusieurs travaux récents, qui proposent de repenser le processus de prévision sous l’angle des statistiques et de l’apprentissage profond. Là où les experts de la physique atmosphérique construisent des modèles de prévision où ils explicitement le fonctionnement de l’atmosphère, l’IA peut apprendre elle-même ce fonctionnement en analysant de très grands jeux de données historiques.

Cette approche par IA de la prévision du temps présente plusieurs avantages : son calcul est beaucoup plus rapide – quelques minutes au lieu d’environ une heure pour produire une prévision à quelques jours d’échéance – et donc moins coûteux, et la qualité des prévisions est potentiellement meilleure. Des études montrent par exemple que ces modèles sont déjà au moins aussi efficaces que des modèles classiques, puisqu’ils permettent d’anticiper plusieurs jours à l’avance des phénomènes tels que les cyclones tropicaux, les tempêtes hivernales ou les vagues de chaleur.

Les modèles d’IA sont encore au stade de développement dans plusieurs services météorologiques nationaux, dont Météo France, et font l’objet de recherches actives pour mieux comprendre leurs potentiels et leurs faiblesses. À court terme, ces modèles d’IA ne remplaceront pas les modèles fondés sur la physique, mais leur utilisation pour la prévision du temps est amenée à se renforcer, à l’instar du modèle AIFS, produit par le Centre européen de prévision météorologique à moyen terme, opérationnel depuis début 2025.

De la prévision météorologique à la prise de décision

Au-delà des modèles, c’est toute la chaîne d’expertise des prévisions et des observations météorologiques qui pourrait être facilitée en mobilisant les techniques d’IA. Cette expertise repose actuellement sur des prévisionnistes qui, chaque jour, analysent une grande quantité de données afin d’y détecter des événements potentiellement dangereux, d’élaborer la carte de vigilance météorologique en cas d’événements extrêmes, comme les fortes pluies, ou encore les bulletins à destination de différents usagers. Dans un contexte où le volume de données à traiter croît rapidement, l’IA pourrait aider les prévisionnistes dans l’extraction et la synthèse de l’information.

Une grande partie des données météorologiques étant assimilable à des images, les méthodes d’IA utilisées en traitement d’images, notamment pour la reconnaissance de formes et la classification automatique, peuvent être appliquées de façon similaire à des données météo. Les équipes de recherche et développement de Météo France ont par exemple mis en œuvre des méthodes d’IA pour l’identification du risque d’orages violents à partir de cartes météorologiques. D’autres travaux ont porté sur le développement d’IA pour la détection de neige sur les images issues de webcams, et l’estimation des quantités de pluie à partir d’images satellites. Enfin, des travaux sont en cours pour utiliser les grands modèles de langage (à l’origine des applications comme ChatGPT) comme support d’aide à la rédaction des bulletins météo.

Dans tous les cas il ne s’agit pas de remplacer l’humain, dont l’expertise reste essentielle dans le processus de décision, mais de développer des IA facilitatrices, qui permettront de concentrer l’expertise humaine sur des tâches à plus forte valeur ajoutée.

En poursuivant les efforts déjà engagés, l’IA contribuera à répondre aux défis climatiques et à renforcer les services de proximité avec une réactivité et une précision accrues. Faire de l’IA un outil central pour la prévision du temps nécessite néanmoins une vigilance particulière sur plusieurs aspects, en particulier la disponibilité et le partage de données de qualité, la maîtrise de l’impact environnemental des IA développées en privilégiant des approches frugales, et le passage de preuves de concept à leur industrialisation.


Cet article est publié dans le cadre de la Fête de la science (qui a lieu du 3 au 13 octobre 2025), dont The Conversation France est partenaire. Cette nouvelle édition porte sur la thématique « Intelligence(s) ». Retrouvez tous les événements de votre région sur le site Fetedelascience.fr.

The Conversation

Laure Raynaud a reçu des financements de l’Agence Nationale de la Recherche (ANR), l’Union Européenne.

ref. L’intelligence artificielle peut-elle améliorer la prévision météorologique ? – https://theconversation.com/lintelligence-artificielle-peut-elle-ameliorer-la-prevision-meteorologique-269457

La privatisation du service public, un non-sens économique et une menace pour notre démocratie

Source: The Conversation – in French – By Nathalie Sonnac, Professeure en sciences de l’information et de la communication, Université Paris-Panthéon-Assas

Les campagnes de dénigrement de l’audiovisuel public, portées par des médias privés, ont récemment pris une ampleur inédite. Le Rassemblement national ne cache pas son intention de le privatiser s’il arrive au pouvoir. Quelles seraient les conséquences de ce choix aux plans économique et politique ?


Nous assistons depuis plusieurs années à une crise des régimes démocratiques, qui se traduit par la montée de dirigeants populistes et/ou autoritaires au pouvoir et à une défiance massive des populations envers les institutions, journalistes et médias. En l’espace d’une génération, les réseaux sociaux les ont supplantés comme les principales sources d’information : 23 % des 18-25 ans dans le monde (Reuters Institute, 2024) s’informent sur TikTok, 62 % des Américains s’informent sur les réseaux sociaux, tandis que seul 1 % des Français de moins de 25 ans achètent un titre de presse.

Pour autant, dans ce nouveau paysage médiatique, la télévision continue d’occuper une place centrale dans la vie des Français, qu’il s’agisse du divertissement, de la culture ou de la compréhension du monde. Elle demeure le mode privilégié d’accès à l’information : 36 millions de téléspectateurs lors d’une allocution du président Macron pendant la crise sanitaire ; près de 60 millions de Français (vingt heures en moyenne par personne) ont suivi les JO de Paris sur France Télévisions. Le groupe public – qui réunit 28 % de part d’audience en 2024 – est la première source d’information chez les Français, il bénéficie d’un niveau de confiance supérieur à celui accordé aux chaînes privées.

L’impossible équation économique d’une privatisation de l’audiovisuel public

Pourtant, tel un marronnier, l’audiovisuel public est régulièrement attaqué par des politiques prônant sa privatisation, voire sa suppression, parfois au nom d’économies pour le contribuable ; d’autres fois, par idéologie. La « vraie-fausse » vidéo des journalistes Thomas Legrand et Patrick Cohen, diffusée en boucle sur la chaîne CNews, donne l’occasion à certains de remettre une pièce dans la machine.

Concrètement, privatiser l’audiovisuel public signifierait vendre les chaînes France 2, France 3 ou France 5 à des acheteurs privés, comme le groupe TF1, propriétaire des chaînes gratuites, telles que TF1, LCI et TFX ; le groupe Bertelsmann, propriétaire des chaînes gratuites M6, W9 ou 6Ter… ou encore le groupe CMA-CGM, propriétaire de BFM TV.

Sur le plan économique, cela relève aujourd’hui du mirage. Même les chaînes privées, pourtant adossées à de grands groupes, peinent à équilibrer leurs comptes. Dans un environnement aussi fortement compétitif, sur l’audience et les revenus publicitaires – les chaînes, les plateformes numériques, comme YouTube, et les services de vidéo à la demande (SVOD), comme Netflix ou Disney+ (qui ont ouvert leur modèle à la publicité), se livrent une concurrence acharnée. Comment imaginer qu’un nouvel entrant aussi puissant qu’une chaîne du service public soit viable économiquement ? Cela revient à ignorer la situation du marché de la publicité télévisée, qui n’est plus capable d’absorber une chaîne de plus.

Ce marché a reculé de 9 % entre 2014 et 2024. Et la télévision ne pèse plus que 20 % du marché total contre 26 % en 2019, quand le numérique capte désormais 57 % des recettes et pourrait atteindre 65 % en 2030. La fuite des annonceurs vers les plateformes en ligne fragilise toutes les chaînes gratuites de la TNT, dont le financement repose quasi exclusivement sur la publicité.

Le service public, pivot économique de l’écosystème audiovisuel

Une chaîne de télévision, ce sont d’abord des programmes : documentaires, films, séries, jeux, divertissements et informations. Or, malgré l’arrivée de nouveaux acteurs, comme les services de vidéo à la demande, qui investissent à hauteur d’un quart des obligations versées au secteur, la production audiovisuelle reste largement dépendante des chaînes de télévision. Ce secteur pèse lourd : plus de 5 500 entreprises, 125 000 emplois et un chiffre d’affaires d’environ 3 milliards d’euros.

Le paysage audiovisuel français reste dominé par trois groupes : TF1, M6 et France TV concentrent plus de 90 % du chiffre d’affaires des chaînes gratuites et assurent 75 % de la contribution totale de la production. Parmi eux, le groupe public France TV est le premier partenaire de la production audiovisuelle et cinématographique nationale : il investit chaque année 600 millions d’euros en achat de programmes audiovisuels et cinématographiques et irrigue ainsi toute l’industrie culturelle.

Le secteur de la production audiovisuelle, malgré l’arrivée des acteurs de la SVOD et leur demande croissante de programmes de création originale française (films, animation, documentaires), demeure largement dépendant des commandes des chaînes de télévision : la diminution du nombre de chaînes, notamment publiques, conduirait à fragiliser l’ensemble de la filière audiovisuelle et culturelle.

Une étude d’impact, réalisée en 2021, établit que le groupe France Télévisions génère 4,4 milliards d’euros de contribution au produit intérieur brut (PIB) pour 2,3 milliards d’euros de contributions publiques, 62 000 équivalents temps plein (pour un emploi direct, cinq emplois supplémentaires sont soutenus dans l’économie française), dont 40 % en région et en outre-mer » et pour chaque euro de contribution à l’audiovisuel public (CAP) versé, 2,30 € de production additionnelle sont générés. Loin d’être une charge, le service public audiovisuel est donc un levier économique majeur, créateur d’emplois, de richesse et de cohésion territoriale.

Le service public : un choix européen

Au-delà des chiffres, l’audiovisuel public constitue un choix démocratique. Les missions de services publics sont au cœur des missions de l’Europe, déjà présentes dans la directive Télévision sans frontière, à la fin des années 1980. Aujourd’hui, c’est la directive de services de médias audiovisuels qui souligne l’importance de la coexistence de fournisseurs publics et privés, allant jusqu’à formuler qu’elle caractérise le marché européen des médias audiovisuels.

Le Parlement européen l’a rappelé en réaffirmant l’importance d’un système mixte associant médias publics et privés, seul modèle capable de garantir à la fois la diversité et l’indépendance. Il ajoute en 2024 dans le règlement sur la liberté des médias l’indispensable « protection des sources journalistiques, de la confidentialité et de l’indépendance des fournisseurs de médias de service public ».

L’étude publiée par l’Observatoire européen de l’audiovisuel en 2022, malgré la diversité des médias publics européens, tous s’accordent autour de valeurs communes : l’indépendance face aux ingérences politiques, l’universalité pour toucher tous les publics, le professionnalisme dans le traitement de l’information, la diversité des points de vue, la responsabilité éditoriale.

Un rôle démocratique indispensable

En France, un suivi très concret et précis du fonctionnement des services publics est assuré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Ces principes sont encadrés par des contrats d’objectifs et de moyens (COM) qui garantissent leur mission démocratique, leur transparence et font l’objet d’un suivi rigoureux par l’autorité de régulation. Plus de 70 articles déterminent les caractéristiques de chaque service public édité, qui vont de la nécessité de faire vivre le débat démocratique à la promotion de la langue française ou l’éducation aux médias et à l’information, en passant par la communication gouvernementale en temps de crise ou encore la lutte contre le dopage. Un cahier des charges est adossé à des missions d’intérêt général, il garantit le pluralisme, la qualité de l’information et l’indépendance éditoriale.

L’information est une de ses composantes essentielles de sa mission d’intérêt général. Elle représente 62,6 % de l’offre globale d’information de la TNT (hors chaînes d’information) en 2024 : JT, émissions spéciales au moment d’élections, magazines de débats politiques et d’investigations. Ces derniers apparaissent comme des éléments distinctifs de l’offre.

Une consultation citoyenne de 127 109 personnes, menée par Ipsos en 2019 pour France Télévisions et Radio France, faisait apparaître que « la qualité de l’information et sa fiabilité » ressortaient comme la première des attentes (68 %), devant « un large éventail de programmes culturels » (43 %) et « le soutien à la création française » (38 %). Dans un climat généralisé de défiance à l’égard des institutions, l’audiovisuel public demeure une référence pour les téléspectateurs.

Il est temps de siffler la fin de la récréation

Le cocktail est explosif : concurrence féroce entre chaînes d’info, fuite des annonceurs vers les plateformes numériques, déficit chronique des chaînes privées. En pleine guerre informationnelle, sans réinvestissement massif dans le service public et sans réflexion sur le financement de la TNT, le risque est clair : l’affaiblissement des piliers démocratiques de notre espace public.

En France, ce rôle doit être pleinement assumé. L’État, à travers l’Arcom, est le garant de la liberté de communication, de l’indépendance et du pluralisme. Il va de sa responsabilité d’assurer la pérennité du financement du service public et de protéger son rôle contre les dérives des logiques commerciales et idéologiques.

The Conversation

Nathalie Sonnac est membre du Carism et du Laboratoire de la République.

ref. La privatisation du service public, un non-sens économique et une menace pour notre démocratie – https://theconversation.com/la-privatisation-du-service-public-un-non-sens-economique-et-une-menace-pour-notre-democratie-266692