Salaires des sportifs français : le podium des inégalités

Source: – By Pierre Rondeau, Professeur d’économie, Sports Management School

Le média spécialisé L’Équipe, via son magazine hebdomadaire, a publié samedi 24 février le classement des 50 sportifs français les mieux payés (salaires, revenus sponsoring et marketing). Traditionnel top 50 dévoilé tous les ans depuis maintenant une quinzaine d’années, cette hiérarchie permet de dévoiler l’état de l’économie des sportifs hexagonaux et des évolutions structurelles et conjoncturelles.

Que dégagent les investigations de L’Équipe ? Que disent-elles sur le niveau de redistribution et de répartition des rémunérations ? Quels sont les critères qui déterminent le poids des salaires ?

Les sports collectifs sur-représentés

Au total, les 50 sportifs français les mieux payés se partagent 430,2 millions d’euros par an. Le premier est le joueur de football de Manchester United, Paul Pogba, avec 22,2 millions de salaire annuel. Il est suivi par le basketteur Tony Parker, avec 19,7 millions d’euros, puis par l’attaquant de l’équipe de France Antoine Griezmann, à 19,1 millions d’euros.

À noter que les sports collectifs sont sur-représentés puisqu’on ne trouve que deux représentants des sports individuels : le champion de rallye Stéphane Ogier, à la 15e place, émargeant à 9,5 millions d’euros par an, et le double champion olympique de judo Teddy Riner, 37e avec 5,5 millions d’euros.

En théorie, la science économique suppose pourtant que les sports individuels sont plus rentables : on y récompense directement l’utilité de l’agent, alors que dans les sports collectifs, c’est la moyenne des utilités individuelles qui compte (à la fois celles des opportunistes et des agents maximisateurs).

Le sport individuel valorise plus les performances personnelles tandis que dans le sport collectif, les résultats sont basés à la fois sur l’individu et l’équipe, sur le groupe dans son intégralité. Et les rémunérations s’en trouvent alors influencées : un très bon joueur dans une mauvaise équipe n’arrivera jamais à être aussi bien payé qu’un très bon joueur dans un sport individuel, qui ne gagne que grâce à ses performances propres.

Par exemple, en 2015, le classement Forbes des 100 sportifs les mieux payés de l’année avait mis aux deux premières places les boxeurs Floyd Mayweather et Manny Pacquiao, avec respectivement 300 millions et 160 millions de dollars de gains. Le premier représentant des sports collectifs, le footballeur Cristiano Ronaldo, gagnait alors moitié moins que le Philippin Pacquiao, avec 79,6 millions.

Où sont les femmes ?

Au-delà de la comparaison « sport individuel, sport collectif », ce qui interpelle lorsqu’on regarde le classement, c’est l’absence unilatérale de sportives. Aucune femme n’apparaît dans le top 50. D’après L’Équipe, cette absence est malheureusement courante puisque, en 13 ans, la gent féminine n’y a été représentée que 9 fois

Cet état de fait n’est pas propre au cas français. Quand on regarde le classement mondial des sportifs en 2017, sur les 100 premières places, on ne trouve qu’une seule femme, la tenniswoman Serena Williams… à la 51e place (avec 27 millions de dollars engrangés dans l’année).

Comment expliquer cette malheureuse absence ? Comment expliquer cette inégalité sociétale généralisée et internationalisée ?

Le premier élément est économique et médiatique. Sur le marché, le sport féminin ferait, par hypothèse, moins d’argent et moins d’audience que le sport masculin. Résultat : la Ligue de football professionnel française coûte, en droits de retransmission télévisée, 748,5 millions d’euros par an, contre un peu plus d’un million d’euros pour la première division féminine.

Et qui dit moins de valeur économique dit moins de médiatisation, moins de sponsors, moins de partenariats marketing et merchandising. En 2012, 81 % des montants investis par les 100 premiers sponsors concernaient le sport masculin, et seuls 3 % le sport féminin.

Seulement, dans les faits, rien ne justifie ces inégalités économiques. Lorsqu’on se penche sur les audiences télévisuelles, on se rend compte que le sport féminin, notamment le football, fait autant voire plus d’audience que le sport masculin.

Un match de Ligue 1 diffusé sur Canal+ ou beIN Sports enregistre, en moyenne, 1 million de téléspectateurs cumulés contre parfois plus de 2 millions pour des matchs de la Coupe du monde féminine et certains matchs du Championnat de France, en clair.

De plus, d’après une étude publiée par Havas Sports & Entertainment en 2013, 70 % des Français trouvent le sport féminin aussi intéressant que le sport masculin. La différence salariale n’a donc pas lieu d’être.

Tous logés à la même enseigne ?

En étudiant en profondeur le classement, on constate une répartition et une distribution inégalitaire.

Paul Pogba, le sportif le mieux payé, gagne 17,2 millions d’euros de plus que le défenseur du Barça Samuel Umtiti, dernier du top 50, à 5 millions d’euros par an. Le salaire moyen (entre les 50 sportifs) s’affiche à 8,6 millions d’euros alors que la médiane (qui coupe en deux parties égales l’effectif des sportifs) n’est qu’à 6,9 millions d’euros.

En statistiques, on admet que le groupe étudié est inégalitaire lorsque la moyenne n’est pas égale à la médiane. Et si cette dernière est inférieure à la moyenne, les inégalités se situent en haut de l’échelle. Autrement dit, les très très riches gagneraient énormément, et les « moins » riches se partageraient équitablement leurs gains.

En utilisant des outils d’analyse plus pointus, le coefficient de Gini (meilleur indicateur de mesure des inégalités) apparaît à 0,36 contre 0,29 dans le reste de la société française. Dans une situation d’égalité parfaite, cet indice est égal à 0.

La répartition des salaires des 50 sportifs français les plus riches est donc plus inégalitaire que dans la société elle-même. Par comparaison, ce niveau de 0,36 se retrouve dans les sociétés britannique et états-unienne. Même chez les riches, il y a des écarts importants.

Comment expliquer ces rémunérations ?

Reste maintenant à expliquer et à comprendre ces salaires aussi élevés. Au-delà de la question de l’inflation, la hausse des salaires est multifactorielle.

Premièrement, la mondialisation et l’internationalisation du sport ont provoqué une augmentation considérable de la valeur des droits télévisés : 1 milliard d’euros en moyenne dans le foot européen, 2,1 milliards d’euros pour la NBA (le championnat de basket nord-américain), 1,5 milliard pour les Jeux olympiques, etc.

Ensuite, cette inflation des droits a attiré de nouveaux investisseurs étrangers, les « sugar daddies ». Ces derniers, russes, chinois, qataris, émiratis, etc., ont injecté énormément d’argent (d’abord dans un but symbolique avant lucratif) et soutenu les budgets du sport.

Puis, toujours à travers la mondialisation, le nombre de fans a augmenté, ce qui a permis une hausse considérable des recettes. Plus de fans à travers le monde, ce sont plus de ventes de maillots, de goodies, de places, de billets… donc plus d’argent à dépenser et à redistribuer aux acteurs.

D’ailleurs, dans un sens très marxiste, le sportif est à la fois un « bourgeois » et un « prolétaire ». Il est le propriétaire des moyens de production et de sa force de travail. C’est lui, et lui seul, qui crée le spectacle et attire les foules de consommateurs. Il n’y a pas d’intermédiaire ou de donneur d’ordres.

La rémunération se base sur la capacité de production du sportif, dont le salaire correspond parfaitement au fruit des ventes. Ainsi, puisque le salaire est négocié en fonction du niveau réel, ceux qui gagnent le plus présentent une productivité marginale supérieure à la moyenne et, par le jeu de la concurrence, poussent continuellement leur contrat à la hausse.

Karl Marx, père du communisme et de la lutte des classes, justifie ici le niveau des rémunérations des sportifs. C’est parce qu’ils rapportent et qu’ils sont bons qu’ils sont bien payés : « De chacun selon ses moyens, à chacun selon ses besoins. »


Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Pierre Rondeau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Salaires des sportifs français : le podium des inégalités – https://theconversation.com/salaires-des-sportifs-francais-le-podium-des-inegalites-92944

Un étudiant, combien ça coûte ? Des inégalités dans l’enseignement supérieur

Source: – By François Métivier, Géophysicien, Dynamique des fluides géologiques , Institut de physique du globe de Paris (IPGP)

Les épreuves écrites du concours 2016 de l’Ecole polytechnique. © École polytechnique – J.Barande, CC BY-SA

Nous présentons ici une data visualisation tirée de notre travail, Inégalités de traitement des étudiants suivant les filières en France publié en 2015 dans le cadre de Sciences en marche. Les données existantes montrent sans ambiguïté que le financement par l’État des étudiants à l’université est largement inférieur à celui consenti aux élèves des CPGE (classes préparatoires aux grandes écoles) et des écoles d’ingénieurs. Cette analyse confirme les résultats obtenus il y a plus de dix ans par S. Zuber. Il faut de plus mettre ces inégalités de financement en regard des inégalités sociales : près de 50 % des étudiants des filières sélectives sont issus de milieux socialement favorisés et un étudiant issu des milieux favorisés a 20 fois plus de chance d’intégrer une grande école qu’un étudiant issu de milieux populaires. En conclusion, l’État finance bien mieux les études des plus aisés, et les politiques universitaires poursuivies depuis des années n’ont en rien résolu ces inégalités sociales.

Cette infographie repose sur trois sources de données.

  • Pour les universités, le nombre d’étudiants provient des données mises en ligne par le Ministère de l’Enseignement supérieur et de la Recherche (MESR).

  • En ce qui concerne le budget, en l’absence de données disponibles sur le site du MESR, nous avons utilisé les dotations 2014 publiées par l’Étudiant. Nous avons dû chercher sur Internet et pour chaque université son budget consolidé. L’essentiel des données provient des rapports du HCERES. Suivant l’université, l’année pour laquelle nous avons trouvé un chiffre « officiel » varie entre 2011 et 2015 (budgets prévisionnels). Ces budgets varient de façon relativement marginale d’une année sur l’autre. Étant donné que les effectifs étudiants sont en croissance rapide, la dépense par étudiant à l’université est probablement inférieure à ce que nous rapportons. Enfin, la dépense par étudiant calculée ici est une valeur maximale car une part du budget, qui peut être importante pour certaines universités scientifiques, est consacrée au financement d’activités de recherche. Le budget rapporté au nombre d’étudiants des l’université est aujourd’hui très probablement inférieur à ce que nous rapportons.

  • Enfin, pour les écoles, les chiffres proviennent du classement 2013 de l’Usine Nouvelle et représentent un échantillon de 126 écoles d’ingénieurs dans lequel nous n’avons conservé que les écoles de statut public ou possédant un contrat quadriennal ou quinquennal avec l’État.

En conclusion de cette note méthodologique, les chiffres indiqués ne sont donc pas à prendre au pied de la lettre et encore moins à l’euro prêt. La situation de certaines écoles ou universités a pu évoluer, leur place aussi. Ils constituent néanmoins une estimation viable de l’état des dépenses par étudiants dans un ensemble significatif d’établissements du supérieur financés par l’État. Ils traduisent enfin une situation étonnamment stable alors que des réformes profondes de l’enseignement supérieur et de la recherche se succèdent depuis plus de dix ans.

La datavisualisation de cet article a été réalisée par Raphaël da Silva.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Un étudiant, combien ça coûte ? Des inégalités dans l’enseignement supérieur – https://theconversation.com/un-etudiant-combien-ca-coute-des-inegalites-dans-lenseignement-superieur-91502

L’avenir des véhicules électriques selon les experts du secteur de l’énergie

Source: – By Anne-Lorène Vernay, Chargée de cours en stratégie, Grenoble École de Management (GEM)

Renault Zoé est actuellement le véhicule électrique le plus vendu au sein de l’Union européenne (15% de parts de marché) et leader en France (avec 70% de parts de marché). Wikimedia Commons, CC BY

Depuis que Tesla a commercialisé son premier véhicule électrique (VE) au milieu des années 2000, plusieurs constructeurs automobiles tels que le Chinois BYD, Renault-Nissan ou BMW se sont positionnés clairement sur ce marché. Les VE promettent d’améliorer la qualité de vie en milieu urbain grâce à la réduction de la pollution de l’air et des nuisances sonores. L’augmentation significative de la part des VE devrait également réduire les émissions de gaz à effet de serre, notamment si l’électricité utilisée pour la recharge des batteries provient de sources décarbonées.

Selon le dernier rapport global sur les VE de l’Agence internationale de l’énergie, en 2016, le chiffre record de 750 000 véhicules électriques vendus a été atteint, dont plus de la moitié en Chine. Le marché des VE devrait continuer sa croissance dans les années à venir et d’ici à 2020, entre 9 et 20 millions de VE sont attendus sur les routes. À noter également qu’en 2016, les infrastructures de stations de recharge publiques ont crû sur un rythme annuel de 72%.

Pour soutenir le développement des VE, plusieurs pays proposent des réductions de prix aux acheteurs. En France, cette aide peut s’élever à 6 000 euros (plus une prime additionnelle de 2 500 euros si un véhicule diesel de plus de 16 ans est mis à la casse). En 2017, près de 31 000 véhicules électriques ont été immatriculés en France. Ce chiffre correspond à une part de marché de 1,2%, ce qui reste bien en dessous du pays champion du VE, la Norvège, où 17% des ventes sont électriques. En Allemagne pour la même période, les ventes sont un peu moindres mais se situent dans une fourchette assez similaire à la France.

En lien avec ces développements, l’édition hiver 2017-2018 du Baromètre du marché de l’énergie de Grenoble École de Management et du Zentrum für Europäische Wirtschaftsforschung (Centre pour la recherche économique européenne) questionne les perceptions des experts du secteur de l’énergie sur le développement du véhicule électrique en France et en Allemagne.

Adaptation majeure des réseaux de distribution

Experts français et allemands s’accordent pour dire qu’aucun changement majeur ne sera requis au niveau de la production d’électricité et du réseau de transport. Selon une grande majorité des spécialistes de notre échantillon français, une part de 10% de véhicules électriques en France d’ici 2025, soit environ 4 millions de voitures, ne nécessite pas de tels changements.

En revanche, les experts des deux pays pensent que si la part des VE atteint 10%, cela nécessitera de larges investissements dans le réseau de distribution, c’est-à-dire au niveau des transformateurs et des câbles dont la puissance devra être augmentée.

À titre d’exemple, recharger un VE pourrait doubler la demande électrique d’un foyer. Les réseaux de distribution existants pourraient ne pas être en mesure de supporter la charge supplémentaire si les véhicules sont chargés en parallèle des usages conventionnels. Les niveaux d’investissements sont incertains mais une étude récente d’Artelys montre que pour la France, la facture pourrait s’élever à 150 millions d’euros par an et ce jusqu’en 2030. À défaut, le système électrique risque de ne pas pouvoir faire face.

Domination des distributeurs d’électricité

Pour réduire le stress que les VE pourraient imposer au réseau d’électricité et aux capacités de production, un pilotage de la charge peut être mis en œuvre afin de recharger les véhicules électriques en dehors des périodes de pointe et lorsque beaucoup d’électricité renouvelable est injectée dans le réseau. Ainsi, le pilotage des batteries et la charge des VE peut apporter un réel service au système électrique et à son équilibrage. Beaucoup d’incertitudes demeurent sur qui pourrait profiter de ce marché émergent, et l’opinion des spécialistes est assez divisée.

Les experts des deux côtés du Rhin s’attendent à ce que les distributeurs d’électricité jouent un rôle important, quitte à développer des nouvelles compétences (sur la gestion des données par exemple). Cependant, ils ont des opinions assez divergentes en ce qui concerne le rôle des constructeurs automobiles, traders (négociants), start-ups, ou fournisseurs historiques d’électricité, et les experts allemands envisagent un rôle plus prononcé pour ces deux derniers.

Ces divergences peuvent refléter des potentiels différents dans chacun des deux pays et sont révélatrices de l’intérêt exprimé par des acteurs très divers pour ce marché porteur.

Des prix élevés et une faible autonomie

Interrogés sur les freins à l’achat de véhicules électriques, les experts se montrent assez pessimistes et voient de nombreuses barrières à surmonter avant que les VE puissent véritablement concurrencer les voitures thermiques. Ils s’accordent autour du besoin d’améliorer considérablement la performance technologique des VE afin de diminuer leur prix et d’augmenter leur autonomie. Environ 38% des Français et 52% des Allemands pensent que les prix d’achats élevés sont une barrière très importante. Actuellement, les coûts d’achat d’un VE sont de 15 à 25% plus élevés que pour un véhicule traditionnel.

Dans un futur proche, l’augmentation des volumes de production de voitures électriques devrait permettre de réduire les coûts, et notamment le prix des batteries. Les constructeurs automobiles eux-mêmes ne manquent pas d’annoncer la sortie de véhicules électriques à bas coût, comme Tesla et son modèle 3 (vendu à partir de 35 000 dollars) ou Renault qui ambitionne de commercialiser une version électrique de la Renault Kwid pour 7 à 8 000 dollars dès 2019 en Chine.

De même, les VE ont des coûts de fonctionnement plus limités tant en carburant qu’en entretien du fait d’une mécanique simplifiée (pas de vidange, pas besoin de changer les bougies, etc.). Cependant, l’autonomie reste limitée à environ 250 kilomètres pour la plupart des modèles (c’est environ le double pour la Tesla Model S). Ainsi, il n’est pas étonnant de constater que 44% des experts français et 64% des experts allemands voient la faible autonomie des VE comme un frein très important.

Le développement des infrastructures de recharge est également souligné. Ainsi, 61% des Français et 47% des Allemands considèrent le manque de stations de recharge comme une barrière importante – et respectivement 29% et 45% comme très importante. Le fait que la France dispose d’un faible taux de densité de station à 0,1 site pour 1 000 voitures immatriculées (comparé à 3 pour le Land de Baden-Württemberg en Allemagne par exemple) peut expliquer ce résultat.

Les temps de charge trop longs sont aussi considérés comme des barrières importantes par 60% des Français et 56% des Allemands. Vraisemblablement, des temps de charge de batteries jusqu’à 12 heures expliquent ces résultats, même si des sites de charge rapide de 30 minutes existent. Cela devrait s’améliorer dans les années à venir. Ainsi, l’Ademe soutient financièrement l’installation de 13 200 bornes de recharges et plusieurs énergéticiens investissent dans le développement de bornes de recharges (EDF, Engie ou Total notamment).

Il est à noter que les spécialistes allemands s’affichent comme plus pessimistes que leurs collègues français, les barrières à la diffusion du véhicule électrique étant plus importantes selon eux. Cela peut refléter une baisse de confiance dans les annonces faites par l’industrie automobile à propos des performances technologiques des véhicules après le scandale Volkswagen.

Interdiction des véhicules thermiques d’ici 25 ans

En présentant le volet mobilité de son « Plan Climat », le ministre de la Transition écologique et solidaire, Nicolas Hulot, a annoncé l’objectif d’arrêter les ventes de véhicules diesel et essence d’ici 2040 en France. D’autres pays, comme la Norvège, les Pays-Bas et le Royaume-Uni ont des plans pour interdire la mise en circulation de véhicules à moteur thermique dans les vingt prochaines années. Ces interdictions faciliteront la réduction de la pollution en ville, où les concentration d’oxydes d’azote (NOx) posent des problèmes de santé publique importants.

Les experts ont pu exprimer leur opinion sur la possibilité d’une interdiction des voitures diesel et à essence dans les 20-25 prochaines années. À ce sujet, spécialistes français et allemands semblent en désaccord. Alors que la majorité des Français (près de 65%) pensent que les véhicules thermiques seront interdits dans certaines villes en France, peu d’Allemands (13%) pensent que ce sera le cas outre-Rhin. Et si cela arrivait, l’interdiction serait mise en place au niveau national et non local. Signalons aussi que 60% des experts allemands ne pensent pas qu’un ban aura lieu ou jugent la question complètement ouverte – contre environ 14% seulement des experts français.

On peut présumer que les résultats pour la France reflètent l’impact de l’annonce faite par la ville de Paris d’interdire les véhicules diesel et à essence. Il est à noter également que plusieurs villes en régions (comme Grenoble, Lille, Lyon ou Toulouse) ont pris des décisions en ce sens en instaurant des restrictions de circulation (certificat Crit’air) lors des pics de pollution.

L’analyse globale des résultats de ce nouveau Baromètre du marché de l’énergie confirme que la route vers un changement de modèle dominant de la mobilité est encore longue. Si quelques signaux sont favorables et encourageants pour une transition bas carbone, l’adaptation du réseau, la compétitivité des offres et l’origine renouvelable de l’électricité resteront trois défis majeurs pour la décennie à venir.


Le Baromètre du marché de l’énergie mené fin 2017 (en novembre pour l’Allemagne, en décembre pour la France) interroge 250 spécialistes français et allemands qualifiés dans le secteur de l’énergie et opérant dans l’industrie, la science et l’administration publique sur les défis de la mobilité électrique (e-mobilité) pour le secteur de l’électricité. L’intégralité de l’étude pour la France est à retrouver ici et pour l’Allemagne ici.

Les datavisualisations de cet article ont été réalisées par Diane Frances.

The Conversation

Nikolas Wölfing is working at ZEW, a research institute which takes funds from third parties for research and consulting work. He moreover received the “EEX Excellence Award”, a research prize of the European Energy Exchange which is awarded for “outstanding research in the field of energy and exchange trading”.

Olivier Cateura a reçu entre 2003 et 2006 des financements publics de l’ANRT (Association Nationale Recherche Technologie) et privés de Electrabel (Engie) dans le cadre d’une Convention CIFRE (Thèse de doctorat) . Par ailleurs, il est membre-auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale).

Anne-Lorène Vernay, Joachim Schleich, Swaroop Rao et Wolfgang Habla ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.

ref. L’avenir des véhicules électriques selon les experts du secteur de l’énergie – https://theconversation.com/lavenir-des-vehicules-electriques-selon-les-experts-du-secteur-de-lenergie-91048

Mais pourquoi certains requins « freezent » lorsqu’on les retourne ?

Source: – By Jodie L. Rummer, Professor of Marine Biology, James Cook University

Lorsqu’on retourne certains requins, ils se figent totalement. Rachel Moore

Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.

Mais que se passe-t-il quand un requin agit ainsi ?

Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.

Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?

Le mystère du « requin figé »

Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.

Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.

Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.

Alors, pourquoi certains requins se figent-ils ?

Des requins et d’autres poissons nagent au-dessus d’un récif corallien
Chez les requins, l’immobilité tonique est déclenchée lorsqu’on les retourne sur le dos.
Rachel Moore

Trois hypothèses principales

Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :

  1. Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.

  2. Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.

  3. Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.

Mais nos résultats ne confirment aucune de ces explications.

Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.


Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !


L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.

Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.

Une affaire de bagage évolutif

Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.

En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?

Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.

Que faut-il en conclure ?

Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.

Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.

Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.

The Conversation

Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.

Joel Gayford reçoit des financements du Northcote Trust.

ref. Mais pourquoi certains requins « freezent » lorsqu’on les retourne ? – https://theconversation.com/mais-pourquoi-certains-requins-freezent-lorsquon-les-retourne-259916

IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions

Source: – By Mônica Macedo-Rouet, Professeure des universités en psychologie de l’éducation, CY Cergy Paris Université

Utiliser l’IA pour ses études, mais intelligemment. Franco Alva/Unsplash, CC BY

La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.

Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.


Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.

En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.

Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.

Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.

D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?

Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA

L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.

Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.

Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.

Récemment, tout un chacun a pu mesurer leur importance dans le contexte de la diffusion des fausses informations sur la Covid-19. Sans la source, la crédibilité d’une information scientifique peut difficilement être évaluée.

L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle

Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.

À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.

Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.




À lire aussi :
Comment fonctionne ChatGPT ? Décrypter son nom pour comprendre les modèles de langage


Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.

Ne pas citer ses sources (correctement) est passible de sanctions

Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 :

« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »

Cependant, la même réponse précise que :

« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »

Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.

En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.

Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.

Une première piste : améliorer la détection des textes produits par l’IA

Une première piste serait d’améliorer la détection des textes produits par l’IA.

Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.




À lire aussi :
Peut-on détecter automatiquement les deepfakes ?


C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.

Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.

Former – toujours former ! – à l’évaluation des sources d’information

Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.

L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.

Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.

The Conversation

Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. IA et étudiants : Savoir citer ses sources est indispensable à la formation intellectuelle – et ne pas le faire est passible de sanctions – https://theconversation.com/ia-et-etudiants-savoir-citer-ses-sources-est-indispensable-a-la-formation-intellectuelle-et-ne-pas-le-faire-est-passible-de-sanctions-259397

Pourquoi la musique sonne-t-elle juste ou faux ?

Source: – By Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d’ondes acoustiques et de la physique des instruments de musique, Le Mans Université

Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.


S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.

Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.

Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.

La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La musique, une affaire de physiciens ?

À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).

Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.

Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.

Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.

Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.

Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.

Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s’explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.

Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.

Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.

Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !

The Conversation

Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Pourquoi la musique sonne-t-elle juste ou faux ? – https://theconversation.com/pourquoi-la-musique-sonne-t-elle-juste-ou-faux-259170

Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac

Source: – By Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse

Guillaume Cabanac a été distingué par la revue _Nature_ comme l’un des dix scientifiques de l’année 2021. DCCE, Université de Toulouse, Fourni par l’auteur

Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l’a rencontré.


The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?

Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.

Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.

Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !

Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…

G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.

Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.

De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.

Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».

Ceci questionne la qualité de l’évaluation par les pairs. C’est ce qui a vraiment scandalisé la communauté scientifique et a discrédité ces maisons d’édition qui ont dû reconnaître les faits.

Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.

Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.

Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.




À lire aussi :
Découverte d’une fraude scientifique pour booster artificiellement l’impact des recherches


Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?

G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.

Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?

G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.

Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.

Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.

Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.

Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?

G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.

Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.

Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.

Comment expliquer qu’une publication scientifique puisse contenir autant de citations d’articles rétractés ?

G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.

L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.

Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?

G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.

Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».

Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.

En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?

G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.

Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.

The Conversation

Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l’Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.

ref. Ces détectives qui traquent les fraudes scientifiques : conversation avec Guillaume Cabanac – https://theconversation.com/ces-detectives-qui-traquent-les-fraudes-scientifiques-conversation-avec-guillaume-cabanac-258829

Comment comprendre ce qu’il se passe à l’intérieur du Soleil ?

Source: – By Gaël Buldgen, Docteur en astrophysique, spécialiste de physique solaire et stellaire, Université de Liège

Le Soleil est le seul lieu où la fusion nucléaire est stable dans notre système solaire. Cela fait des décennies que les scientifiques tentent de comprendre sa physique. Où en est-on aujourd’hui ?


Notre Soleil représente à lui seul plus de 99 % de la masse du système solaire. Sans lui, la vie sur Terre serait impossible. Au delà de fournir de l’énergie à la Terre, on peut aussi le considérer comme un laboratoire de physique fondamentale. L’étude de sa structure interne et de sa modélisation théorique permet de mettre en évidence les limitations de nos connaissances. Depuis bientôt 4,6 milliards d’années, notre Soleil est le seul lieu de réaction de fusion nucléaire stable du système solaire. C’est en effet par la fusion d’hydrogène en hélium qu’il produit son énergie et qu’il continuera à le faire pour encore 5 milliards d’années.

Depuis plusieurs décennies, des groupes de recherche de par le monde s’attachent à mieux révéler l’intérieur de notre étoile et à étudier les phénomènes physiques agissant dans ces conditions extrêmes. Les expertises sont variées, allant de physiciens et astrophysiciens européens, dont je fais partie, Russes et Japonais, en passant par des spécialistes de physique nucléaire du Los Alamos National Laboratory ou du CEA de Paris-Saclay. Ensemble, nous tentons de percer les mystères de notre étoile en révélant sa face cachée, sa structure interne. Nos outils comptent des observations astronomiques effectuées tant depuis le sol que l’espace, mais aussi des simulations numériques avancées de la structure et de l’évolution du Soleil, appelées simplement « modèles solaires » (au sens de modèle physique, tels les modèles utilisés en géophysique pour décrire la Terre).

Elles constituent la base théorique sur laquelle sont élaborés les modèles utilisés pour étudier toutes les autres étoiles de l’Univers. Notre Soleil sert de calibrateur pour la physique stellaire. En conséquence, changer de modèle solaire, c’est changer de point de référence pour toutes les étoiles.

Calculer un modèle solaire est un exercice d’équilibre pour un astrophysicien. Il faut bien choisir ses éléments constitutifs. On pense immédiatement à sa composition chimique (en masse : 73 % d’hydrogène, 25 % d’hélium et 2 % d’éléments plus lourds ; en nombre d’atomes : 92 % d’hydrogène, 7,8 % d’hélium, 0,2 % d’éléments plus lourds). Cependant, d’autres choix entrent en jeu. Il s’agit de modéliser l’ensemble des phénomènes physiques se produisant en son sein. Tous ces ingrédients constituent des éléments de physique fondamentale définissant notre vision du Soleil, son « modèle standard ». La première définition d’un modèle standard pour notre Soleil date de 1980 environ et est due à John Bahcall, un astrophysicien américain.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


La crise des modèles solaires

Le modèle standard solaire a connu de grands succès, survivant à la « crise des neutrinos solaires ». Cette crise résultait de la détection de trois fois moins de neutrinos que prévu théoriquement. La divergence fut expliquée par une révision de la physique des neutrinos (récompensée par les prix Nobel en 2002 et 2015).

Le modèle standard solaire s’en trouva renforcé, devenant un élément clé de la théorie de l’évolution stellaire. Dans les années 2000, la révision de la composition chimique solaire a entraîné une nouvelle crise. Ces mesures furent réalisées à l’aide d’observations spectroscopiques, permettant d’identifier chaque élément chimique présent dans l’atmosphère solaire. L’amélioration des mesures spectroscopiques et des techniques d’analyse était à l’origine de cette révision.

Ces travaux, confirmés par la suite, menaient à une réduction de 30 % de l’abondance en masse de carbone et d’oxygène. Ce changement détruisit l’accord existant du modèle standard avec les mesures de neutrinos et les contraintes issues de l’étude des oscillations solaires, appelée héliosismologie. Comme en sismologie terrestre, qui se sert des ondes traversant notre planète pour en étudier l’intérieur, l’héliosismologie utilise les ondes acoustiques se propageant dans le Soleil pour en mesurer les conditions internes. Grâce aux oscillations solaires, on connaissait précisément certaines propriétés comme la masse volumique dans 95 % de l’intérieur de notre étoile.

La révision de la composition chimique du Soleil fut mal accueillie, car elle invalidait le modèle standard. Plusieurs groupes voulurent maintenir les valeurs du XXe siècle. La polémique enfla et de récentes mesures indépendantes par héliosismologie confirmèrent la réduction en oxygène, tout en maintenant les écarts observés dans les régions centrales.

L’explication des désaccords des modèles théoriques avec l’intérieur du Soleil est à chercher ailleurs… C’est dans ce contexte de débat intense que mon travail a commencé, il y a dix ans, durant ma thèse de doctorat. Je choisis d’adapter des outils numériques à ma disposition pour étudier la structure interne du Soleil. Ce qui devait être un petit détour au cours de ma thèse est devenu un projet majeur, en raison du regain d’intérêt pour l’héliosismologie et pour les modèles solaires.

L’importance de la physique fondamentale en physique solaire

Un modèle solaire ne se limite pas à sa composition chimique. Il fait intervenir une série d’éléments devant suivre les avancées de physique théorique et expérimentale. Nous savons que le Soleil produit son énergie par fusion d’hydrogène en hélium, les observations des neutrinos solaires l’ont confirmé de manière irréfutable. Cependant, la vitesse de ces réactions reste sujette à de petites corrections. Ces révisions sont minimes, mais le degré de précision quasi chirurgical avec lequel nous étudions le Soleil les rend significatives.

Un autre ingrédient clé des modèles solaires est l’opacité de la matière solaire, liée à sa capacité à absorber l’énergie du rayonnement. Comme dit plus haut, le Soleil génère son énergie par fusion nucléaire en son cœur. Cette énergie, avant de nous parvenir sur Terre, doit être transportée de l’intérieur du Soleil vers son atmosphère. Dans 98 % de sa masse, c’est le rayonnement à haute énergie (rayons X) qui s’en charge. Ainsi, si l’on change la « transparence » du milieu solaire, on change totalement la structure interne de notre étoile.

Dans le cas solaire, nous parlons de conditions extrêmes, quasi impossibles à reproduire sur Terre (températures de plusieurs millions de degrés, densités élevées). L’opacité a toujours joué un rôle clef en physique stellaire, ses révisions successives permirent de résoudre plusieurs crises par le passé. Chaque fois, les calculs théoriques avaient sous-estimé l’opacité. Rapidement, on envisagea qu’une nouvelle révision permettrait de « sauver » les modèles solaires. Dès 2009, les astrophysiciens s’attelèrent à estimer les modifications requises. Cependant, une des grandes difficultés résidait dans la connaissance de la composition chimique de l’intérieur solaire. En effet, notre étoile n’est pas statique. Au fil du temps, sa composition chimique évolue sous l’effet des réactions nucléaires au cœur et de la sédimentation. Ainsi, un atome d’oxygène à la surface du Soleil, plus lourd que son environnement, « tombera » vers les couches profondes, changeant les propriétés du plasma.

Le Soleil comme laboratoire de physique

Ces questions sont liées à notre connaissance des conditions physiques internes du Soleil et donc à notre capacité à les mesurer.

La précision atteinte sur la masse volumique du milieu solaire est phénoménale, inférieure au centième de pourcent. Ces mesures très précises m’ont permis de développer des méthodes de détermination directe de l’absorption du plasma solaire, l’opacité tant recherchée.

Elles ont montré que l’opacité des modèles solaires actuels est inférieure aux mesures héliosismiques d’environ 10 %. Ces résultats ont confirmé indépendamment les mesures des Sandia National Laboratories (États-Unis), où des physiciens ont reproduit des conditions quasi solaires et mesuré la capacité d’absorption du plasma. En 2015, ces mesures avaient déjà montré des écarts significatifs entre théorie et expérience. Dix ans plus tard, elles sont confirmées par de nouvelles campagnes et des mesures indépendantes. La balle est désormais dans le camp des théoriciens, afin d’expliquer des différences préoccupantes qui révèlent les limites de notre compréhension de la physique dans les conditions extrêmes de notre étoile.

Z Pulsed Power Facility : l’installation des Sandia National Laboratories qui effectuent des mesures d’opacité en conditions solaires.
Sandia National Laboratories

Du Soleil aux étoiles

L’enjeu dépasse toutefois de loin notre vision de l’intérieur du Soleil. Depuis le début du XXIe siècle, de nombreuses missions sont consacrées à l’étude des étoiles et de leurs exoplanètes. Les techniques d’héliosismologie se sont naturellement exportées aux autres étoiles, menant au développement exponentiel de l’astérosismologie.

Pas moins de quatre missions majeures furent consacrées à cette discipline : CoRoT, Kepler, TESS et bientôt PLATO. Toutes visent à déterminer précisément les masses, rayons et âges des étoiles de notre galaxie, les modèles stellaires étant essentiels pour cartographier l’évolution de l’Univers. Cependant, toutes ces considérations sur la datation des objets cosmiques nous ramènent à l’infiniment proche et petit. Donner l’âge d’une étoile requiert de comprendre précisément les conditions physiques régissant son évolution.

Ainsi, savoir comment l’énergie est transportée en son sein est primordial pour comprendre comment, de sa naissance à sa mort, l’étoile évolue. L’opacité, régie par des interactions à l’échelle de l’Angström (10-10 m), est donc essentielle pour modéliser l’évolution des astres, à commencer par notre Soleil.

The Conversation

Gaël Buldgen a reçu des financements du FNRS (Fonds National de la Recherche Scientifique, Belgique) et du Fonds National Suisse (FNS).

ref. Comment comprendre ce qu’il se passe à l’intérieur du Soleil ? – https://theconversation.com/comment-comprendre-ce-quil-se-passe-a-linterieur-du-soleil-258649

Les arbres savent-ils quand a lieu le solstice ?

Source: – By Andrew Hacket-Pain, Senior Lecturer, School of Environmental Sciences, University of Liverpool

Les arbres sont très sensibles à la lumière et à la chaleur. Cashcashcash/Shutterstock

Le solstice d’été semble jouer un rôle d’aide-mémoire arboricole. Les températures autour de cette période affectent le nombre de graines produites par les arbres.


Depuis la Préhistoire, les humains célèbrent le solstice d’été. Mais nous ne sommes pas la seule espèce à avoir remarqué que le 21 juin est un moment particulier. Des études montrent que c’est aussi un moment important pour les plantes.

Ainsi, des études récentes (dont une des miennes) suggèrent que les arbres puissent utiliser le jour le plus long de l’année comme un marqueur clé de leurs cycles de croissance et de reproduction. Comme si le solstice était un aide-mémoire arboricole.

Par exemple, les arbres qui poussent dans des régions froides ralentissent la création de nouvelles cellules de bois aux environs du solstice et concentrent leur énergie à finir des cellules déjà formées mais encore incomplètes. Ce qui permettrait d’avoir le temps d’achever la construction des cellules avant l’arrivée de l’hiver – dont les températures glaciales endommagent les cellules incomplètes, les rendant inutiles pour le transport de l’eau l’année suivante.

Le solstice initie-t-il le brunissement des feuilles avant l’automne ?

Il semble également que les arbres profitent du solstice pour préparer de l’automne, avec la « sénescence » de leurs feuilles. La sénescence permet à l’arbre de réabsorber les nutriments essentiels présents dans les feuilles avant qu’elles ne tombent. Ce processus doit arriver au bon moment : si la sénescence est trop précoce, la perte de feuille réduit la photosynthèse (et donc l’acquisition d’énergie qui sert à la croissance de l’arbre entier). Si la sénescence est trop tardive, les gelées d’automne détruisent les feuilles encore vertes, ce qui fait perdre à l’arbre les précieux nutriments qu’il y avait stockés.

Ainsi, des observations satellites des forêts et des expériences contrôlées dans des serres montrent que des températures élevées juste avant le solstice ont tendance à avancer le brunissement des feuilles à l’automne

À l’inverse, des températures élevées juste après le solstice semblent ralentir le processus de sénescence, ce qui allonge la période de transition entre les feuilles vertes et les feuilles entièrement brunes. Ce réglage fin permettrait aux arbres de prolonger la période de photosynthèse les années où les températures restent plus élevées et de ne pas manquer ces conditions favorables.


Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Ces observations et leurs interprétations font cependant débat parmi les scientifiques.

En effet, du point de vue de l’évolution, le solstice ne serait peut-être pas le meilleur marqueur temporel de ces transitions dans le cycle annuel des arbres. Par exemple, dans les forêts du Grand Nord, les feuilles n’apparaissent pas avant le début du mois de juin, quelques jours seulement avant le solstice, et la saison de croissance peut se prolonger jusqu’en octobre. Dans ces forêts où certains arbres viennent à peine d’entamer leur croissance pour l’année, utiliser le solstice pour amorcer le processus de réduction progressive des activités ne semble guère avoir de sens.

Par contre, il existe un consensus plus large sur l’utilisation du solstice par les plantes pour synchroniser leur reproduction.

Solstice, dis-moi combien de graines produire cette année

Chez de nombreuses plantes, en particulier les arbres des latitudes moyennes tempérées, le nombre de graines produites varie considérablement d’une année à l’autre, ce que l’on appelle le masting. Par exemple, un grand hêtre européen peut produire des centaines de milliers de graines lors d’une année exceptionnelle (une « masting year ») et renoncer totalement à la reproduction d’autres années.

La réduction de la production de graines par les hêtres, qui leur permet d’augmenter l’efficacité de leur reproduction, se fait souvent à l’échelle continentale, et par étapes.

Forêt de hêtres avec un vieil arbre au soleil
Les hêtres coordonnent leur reproduction.
Gabriele Rohde/Shutterstock

Un petit papillon, Cydia fagiglandana (ou le carpocapse des faînes, en français – le faîne est le fruit du hêtre), pond ses œufs dans les fleurs de hêtre. Lorsque les larves éclosent, elles mangent et détruisent les graines en développement. L’alternance entre des années fastes en faînes et années de disette contribue à protéger les populations de hêtres de ces papillons.

Au Royaume-Uni par exemple, les hêtres perdent moins de 5 % de leurs graines à cause de Cydia. En effet, les cycles affament les papillons et réduisent leur population, qui attend les années fastes. Si les arbres sont désynchronisés dans ces cycles de forte et faible production de fruits, la perte de graines peut atteindre plus de 40 %.

Nous savons depuis des dizaines d’années que les années d’abondance se produisent après un été particulièrement chaud. En effet, les températures élevées augmentent la formation des bourgeons floraux, ce qui entraîne généralement une plus grande récolte de graines à l’automne.

Comment les hêtres savent-ils que le solstice est le jour le plus long ?

Par contre, nous ne savons pas pourquoi ou comment les hêtres de toute l’Europe semblent utiliser la même fenêtre saisonnière (fin juin-début juillet) pour déterminer leur production de graines, quel que soit l’endroit où ils poussent en Europe. Comment un hêtre peut-il connaître la date ?

En 2024, en étudiant des dizaines de forêts à travers l’Europe, mon équipe a montré que ces arbres utilisent le solstice comme marqueur saisonnier : dès que les jours commencent à raccourcir après le solstice, les hêtres de toute l’Europe semblent percevoir simultanément la température.

Partout où les températures sont supérieures à la moyenne dans les semaines qui suivent le solstice, on peut s’attendre à une forte production de faînes l’année suivante, tandis que les conditions météorologiques des semaines précédant le solstice ne semblent pas avoir d’importance.

Comme le montrent les cartes météorologiques, les périodes de chaleur et de fraîcheur ont tendance à se produire simultanément sur de vastes zones.

Ceci permet aux hêtres de maximiser la synchronisation de leur reproduction, que ce soit en investissant dans une forte production (températures chaudes) ou en renonçant à la reproduction pendant un an (températures basses). L’utilisation d’un repère fixe comme le solstice est la clé de cette synchronisation et des avantages qui en découlent.

Quatre cartes d’Europe montrent que les années d’abondance sont synchronisées à travers le continent
Sur ces cartes, les années d’abondance et de disette semblent se synchroniser à l’échelle régionale, parfois même à l’échelle européenne.
Andrew Hacket-Pain, CC BY-NC-ND

Désormais, nous collaborons avec une douzaine d’autres groupes européens pour tester cet effet sur différents sites, en manipulant la température de branches de hêtre avant et après le solstice. Les recherches en cours semblent indiquer que les gènes de floraison s’activent au moment du solstice d’été.

Enfin, des études sur les rythmes circadiens des plantes montrent que celles-ci possèdent des mécanismes moléculaires permettant de détecter de minuscules changements dans la durée du jour, et d’y répondre – ce serait la base de cette extraordinaire échelle de reproduction synchronisée.

Si le temps reste chaud au cours du mois qui vient, les hêtres de votre région produiront sans doute beaucoup de faînes à l’automne prochain – et il est bien probable que ce soit le cas dans le centre et le nord de l’Europe.

The Conversation

Andrew Hacket-Pain a reçu des financements de UK Research and Innovation, du Department for Environment, Food & Rural Affairs et du British Council.

ref. Les arbres savent-ils quand a lieu le solstice ? – https://theconversation.com/les-arbres-savent-ils-quand-a-lieu-le-solstice-259616

Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise

Source: – By Niousha Shahidi, Full professor, data analysis, EDC Paris Business School

Un contrat avec franchise incite à ne pas prendre de risques – une manière pour les assurances de se garantir que leurs clients ne se reposent pas complètement sur elles. Ce sont les maths qui le disent.


Nous avons tous un contrat d’assurance contre des risques précis : assurance auto, assurance multirisque habitation (45,9 millions de contrats en 2023 en France)… Vous avez signé ce contrat d’assurance afin de vous couvrir des frais en cas de sinistre. Ce qui est inhabituel, avec les assurances, c’est que vous achetez « un produit » (contrat), mais vous le récupérez (les indemnités) que si vous subissez un sinistre. De plus, il est courant que l’assureur vous propose un contrat « avec franchise », c’est-à-dire qu’en cas de sinistre, une partie fixe des frais reste à votre charge.

Pourquoi les contrats « avec franchise » sont-ils si répandus ? Il existe plusieurs réponses.

Franchise : un contrat idéal

Des chercheurs se sont intéressés au contrat optimal en modélisant mathématiquement la relation entre l’assureur et l’assuré. On dit qu’un contrat est optimal s’il n’existe pas d’autre contrat qui profiterait davantage à l’un (l’assuré ou l’assureur) sans détériorer la situation de l’autre.

Pour trouver le contrat qui maximise à la fois les préférences de l’assuré et de l’assureur, il faut résoudre un problème d’« optimisation ».

L’assureur est considéré comme neutre au risque, c’est-à-dire qu’il n’a pas de préférence entre une richesse dite « aléatoire » (impactée par un risque subi, mais incertain) et une richesse certaine égale à l’espérance de la richesse aléatoire.

Par contre, l’assuré est considéré comme risquophobe, c’est-à-dire que dans l’exemple précédent, il préfère la richesse certaine à la richesse aléatoire.

Dans ce contexte, des travaux de recherche ont montré que le contrat avec franchise est optimal. En effet, ce type de contrat permet à l’assuré risquophobe de réduire le risque puisqu’en cas de sinistre, il aura juste à payer la franchise. Si la franchise est nulle, le contrat neutralise alors complètement le risque puisqu’en payant juste la prime, l’assuré recevra une indemnité égale au dommage subi (potentiellement avec un plafond, mentionné dans le contrat) : on dit qu’il aura une richesse certaine.


Tous les quinze ours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !


Franchise : incitation cachée et aléa moral

D’un point de vue pratique, la mise en place d’un contrat avec franchise représente plusieurs avantages pour l’assureur.

Tout d’abord, ce type de contrat réduit ses frais de gestion car les petites pertes (en dessous du montant de la franchise) ne sont plus traitées.

L’assuré est alors incité à faire un effort afin d’éviter les petites pertes qui resteraient à sa charge, ce qui permet de réduire le phénomène d’« aléa moral ». Ce dernier décrit une situation d’asymétrie d’information entre l’assureur et l’assuré. En effet, une fois le contrat d’assurance signé, l’assurance ne peut pas observer l’effort consenti par l’assuré pour éviter un risque (par exemple la vigilance au volant). Non seulement la mise en place de la franchise permet à l’assureur d’obliger l’assuré à faire un effort, elle lui permet aussi de détourner les individus à haut risque, qui cherchent souvent un contrat plus généreux que les individus à bas risques et qui sont prêts à payer une prime (même chère) afin de ne pas subir les petits risques.

Un autre problème d’asymétrie de l’information, connu sous le nom d’« antisélection » (ou sélection adverse) est alors soulevé. Dans ce contexte, l’assureur ne connaît pas le type (haut/bas risque) de l’assuré. Un individu à haut risque peut acheter un contrat destiné à un individu bas risque.

Si l’assureur ne propose que des contrats sans franchise, il risque d’avoir trop d’assurés à haut risque. L’assureur devra alors statistiquement faire face à un nombre important de sinistres (l’assureur par manque d’information se trouve avec les hauts risques alors qu’il aurait souhaité l’inverse), ce qui aboutit souvent à un déséquilibre entre le montant des primes perçues et le montant des indemnités versées. Il est donc important pour l’assureur de diversifier ses produits en proposant des contrats avec ou sans franchise.

Un contrat avec franchise est donc bien un optimum : l’assuré comme l’assureur a intérêt à éviter les petits sinistres. La franchise permet à l’assureur de faire des économies et en même temps de sélectionner ses clients. Le contrat choisi révèle votre « appétence au risque », que les assureurs classifient en types haut et bas risque !

The Conversation

Niousha Shahidi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Maths au quotidien : pourquoi votre assurance vous propose un contrat avec franchise – https://theconversation.com/maths-au-quotidien-pourquoi-votre-assurance-vous-propose-un-contrat-avec-franchise-259187