High-income professionals over the age of 50 make up 70% of all consumers of bulk products. DCStudio/Shutterstock
The bulk distribution model has been in the news again lately, with well-known brands such as The Laughing Cow making their way into French supermarkets. Stakeholders in the bulk sector are seeking to introduce innovations in order to expand and democratise the concept. But is the bulk model such a clear-cut approach to consuming in a sustainable way?
Bulk can be described as a consumer practice with a lower impact on the environment, since it involves the sale of products with no packaging, plastic or unnecessary waste and the use of reusable containers by consumers. In this type of distribution, predetermined manufacturer packaging becomes a thing of the past.
In this model, distributors and consumers take on the task of packaging the product themselves to ensure the continuity of the multiple logistical and marketing functions that packaging usually fulfils. Unaccustomed to this new role, stakeholders in the bulk sector may make mistakes or act in ways that run counter to the environmental benefits that are generally expected to result from this practice.
Contrary to the usually positive discourse on bulk products, our research points to the perverse and harmful effects of bulk distribution. When bulk stakeholders are left to “cope with” this new task of packaging products, can bulk still be described as ecologically sound?
A new approach to packaging
Packaging has always played a key role. It performs multiple functions that are essential for product distribution and consumption:
Logistical functions to preserve, protect and store the product: packaging helps to limit damage and loss, particularly during transport.
Marketing functions for product or brand recognition, which is achieved by distinctive colours or shapes to create on-shelf appeal. Packaging also has a positioning function, visually conveying a particular range level, as well as an informative function, serving as a medium for communicating a number of key elements such as composition, best-before date, etc.
Environmental functions, such as limiting the size of packaging and promoting certain types of materials – in particular recycled and recyclable materials.
In the bulk market, it is up to consumers and distributors to fulfil these various functions in their own way: they may give them greater or lesser importance, giving priority to some over others. Insofar as manufacturers no longer offer predetermined packaging for their products, consumers and distributors have to take on this task jointly.
Assimilation or accommodation
Our study of how consumers and retailers appropriate these packaging functions used a variety of data: 54 interviews with bulk aisle and store managers and consumers of bulk products, as well as 190 Instagram posts and 428 photos taken in people’s homes and in stores.
The study shows that there are two modes of appropriating packaging functions:
by assimilation – when individuals find ways to imitate typical packaging and its attributes
by accommodation – when they imagine new packaging and new ways of working with it
Bulk packaging can lead to hygiene problems if consumers reuse packaging for a new purpose. GaldricPS/Shutterstock
Some consumers reuse industrial packaging, such as egg cartons and detergent cans, because of their proven practicality. But packaging may also mirror its owners’ identity. Some packaging is cobbled together, while other packaging is carefully chosen with an emphasis on certain materials like wax, a fabric popular in West Africa and used for reusable bags.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Once packaging disappears, so does relevant information
Appropriating the functions of packaging is not always easy. There is a “dark side” to bulk, with possible harmful effects on health or the environment, and social exclusion. Bulk can lead, for example, to hygiene-related problems or misinformation when consumers fail to label their jars correctly, or use packaging for another purpose. For example, using a glass juice bottle to store detergent can be hazardous if a household member is unaware of its contents.
Bulk shopping can also appear exclusive for people with less culinary education. (High-income professionals over the age of 50 make up 70% of all consumers of bulk products.) Once the packaging disappears, so does the relevant information. Some consumers actually do need packaging to recognize, store and know how to cook a product. Without this information, products may end up in the garbage can!
Our study also shows the ambivalence of the so-called “environmental function” of bulk shopping – the initial idea being that bulk should reduce the amount of waste generated by packaging. In fact, this function is not always fulfilled, as many consumers tend to buy a great deal of containers along with other items, such as labels, pens and so on, to customise them.
Some consumers’ priority is not so much to reuse old packaging, but to buy new storage containers, which are often manufactured in faraway lands! The result is the production of massive amounts of waste – the exact opposite of the original purpose of the bulk trade.
Lack of consumer guidance
After a period of strong growth, the bulk sector went through a difficult period during the Covid-19 pandemic, leading to closures for many specialist stores in France, according to a first survey on bulk and on reuse. In supermarkets though, some retailers invested to make their bulk aisles more attractive – though in the absence of any effective guidance, consumers failed to make them their own. Bulk aisles have become just one among a host of other aisles.
Things seem to be improving however, and innovation is on the rise. In France, 58% of the members of the “Bulk and Reuse Network” (réseau Vrac et réemploi) reported an increase in daily traffic between January and May 2023 compared with 2022.
Distributors need to adapt to changing regulations. These stipulate that, by 2030, stores of over 400 m2 will have to devote 20% of their FMCG (Fast-Moving Consumer Goods) sales areas to bulk sales. Moreover, bulk sales made their official entry into French legislation with the law on the fight against waste and the circular economy (loi relative à la lutte contre le gaspillage et à l’économie circulaire) published in the French official gazette on February 11, 2020.
In this context, it is all the more necessary and urgent to support bulk stakeholders, so that they can successfully adopt the practice and develop it further.
Fanny Reniou has received funding from Biocoop as part of a research partnership.
Elisa Robert-Monnot has received funding from Biocoop as part of a research partnership and collaboration.
Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
In Europe, the fastest-warming continent, the intensification of extreme weather events and changes in precipitation patterns have led to widespread and catastrophic flooding. Last year, storms and flooding affected an estimated 413,000 people, resulting in the loss of at least 335 lives. Material damage is estimated to amount to at least €18 billion, according to the 2024 European State of the Climate report from the Copernicus Climate Change Service and the World Meteorological Organization.
The flooding in October that hit southeastern Spain and the Valencia province in particular took the heaviest toll. Intense and prolonged rainfall and river flooding led to 232 fatalities, and infrastructure damage and economic losses totalled around €16.5 billion. More than seven months later, the local economy has rebounded, thanks in part to public aid packages worth 0.5% of the country’s GDP. However, in early May, the same part of Spain found itself exposed again to the disruptive consequences of climate change when extreme weather hit.
The costs of flooding
The direct costs from the damage to public infrastructure and private assets are only part of the economic losses originating from flooding. The indirect costs might not be immediately visible, but they are certainly not less significant. Business interruptions reduce firms’ revenue and cash flows, straining liquidity and, in the worst cases, threatening their survival. In addition, the increasing likelihood of future flooding may be priced into the valuation of assets and real estate in areas exposed to these types of climate risks. Firms impacted by climate-related hazards might find it difficult to pay back loans or bonds, or to raise finance as physical assets that can be pledged as collateral for bank credit lose value. Ultimately, this can affect the stability of the financial system.
For these reasons, climate change is not just a long-term environmental issue, but a threat to our economy and financial systems now. Economists at the European Commission’s Joint Research Centre (JRC) have been conducting research to better understand how the links between the business sector and the financial system amplify its impact.
A JRC study of flood events between 2007 and 2018 finds that flooding significantly worsened the performance of European firms. Manufacturers exposed to flooding experienced reductions in sales, number of employees and the value of their assets. These impacts occurred in the year following the flooding and tended to be persistent, with no clear signs of recovery seven years after the disaster. Some firms even went out of business. The study also finds that companies in flood-prone areas were better able to weather the shock than businesses exposed to less frequent flooding. This is consistent with the fact that adaptation and protection measures reduce the impacts of flooding.
Threats to smaller firms
Water damage is particularly disruptive for companies that are highly indebted. A second JRC study zooms in on the mechanisms whereby financing choices, and reliance on bank loans in particular, amplify the impact of climate change. This study focuses on loans extended to small and medium-sized enterprises (SMEs) in Italy, Spain and Belgium between 2008 and 2019. It was motivated by the idea that smaller firms, which are more financially fragile than larger ones, might also be more vulnerable to the localised impact of climate-related hazards, not least because of their limited capacity to geographically diversify their operations and access market-based finance. The study shows that flood episodes under analysis strained SMEs’ ability to meet their debt obligations. Flooded firms were more likely to incur delays in servicing their loans and eventually fail to repay them, even two years after the disaster.
In turn, this entails losses for the banks that finance these firms. In general, if banks anticipate the impact of flooding on business operations, they could be expected to divert lending toward safer borrowers or charge a higher interest rate on credit extended to at-risk firms. Indeed, the study finds evidence that prospective flood risk is priced into new loans. In the period under analysis, the “flood risk premium” was especially high for loans to smaller firms and for those granted by local, specialised banks, both of which tend to have geographically concentrated activities that are more exposed to disaster impacts. Loans to borrowers exposed to high flood risk were 12 percent more expensive, all things being equal.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Thus, flooding causes worse financial conditions for businesses and exposes the banking sector to losses on their loan portfolios. The numbers can be staggering: days after the October 2024 flooding, the Spanish Central Bank said that banks’ exposure in the affected areas would total €20 billion, with €13 billion in household loans and €7 billion in business loans (60% to SMEs), impacting 23,000 companies and 472,000 individuals.
With extreme weather events becoming more frequent and severe, the direct and indirect costs of climate change are projected to increase, unevenly affecting households, firms and territories across Europe. Increasing investments in adaptation, eg in flood defence, and closing the climate insurance protection gap – the uninsured portion of economic losses caused by natural hazards – are crucial to increase the resilience of our economies and financial systems and preserve the wellbeing of our societies. The complex structure of investment incentives calls for a multilayered approach, with a mix of private and public funding and risk-sharing mechanisms.
Serena Fatica ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
The proverb “practice makes perfect” highlights the importance of repetition to master a skill. This principle also applies to learning vocabulary and other material. In order to fight our natural tendency to forget information, it is essential to reactivate it in our memory. But, how often?
Research in cognitive psychology provides answers to this question. However, it is also important to understand underlying principles of long-term learning to apply them in a useful and personalised way.
First, test yourself to learn and review content. It is much more effective to do this using question-and-answer cards than just to reread the material. After each attempt to recall pieces of information, review the one that could not be retrieved.
The second principle is to space out reactivations over time. This phenomenon, known as the “spacing effect”, suggests that when reviews of specific content are limited to, for instance, three sessions, it is preferable to space them over relatively longer periods (eg every three days) rather than shorter ones (every day).
Reviewing material at long intervals requires more effort, because it is more difficult to recall information after three days than one. However, it is precisely this effort that reinforces memories and promotes long-term retention.
When it comes to learning, we must therefore be wary of effortlessness: easily remembering a lesson today does not indicate how likely we are to remember it in a month, even though this feeling of easiness can cause us to mistakenly believe that review is unnecessary.
Robert Bjork of the University of California coined the term “desirable difficulty” to describe an optimal level of difficulty between two extremes. The first extreme corresponds to learning that is too easy (and therefore ineffective in the long run), while the other extreme corresponds to learning that is too difficult (and therefore ineffective and discouraging).
Finding the right pace
There is a limit to how much time can pass between information retrievals. After a long delay, such as a year, information will have greatly declined in memory and will be difficult, if not impossible, to recall. This situation may generate negative emotions and force us to start learning from scratch, rendering our previous efforts useless.
There are also paper-and-pencil methods. The simplest method is to follow an “expansive” schedule, which uses increasingly longer intervals between sessions. This technique is used in the “méthode des J” (method of days), which some students may be familiar with. The effectiveness of this method lies in a gradual strengthening of the memory.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
When you first learn something, retention is fragile, and memorised content needs to be reactivated quickly not to be forgotten. Each retrieval strengthens the memory, allowing the next retrieval opportunity to be delayed. Another consequence is that each retrieval is moderately difficult, which places the learner at a “desirable” level of difficulty.
Here is an example of an expansive schedule for a given piece of content: Day 1, Day 2, D5, D15, D44, D145, D415, etc. In this schedule, the interval length triples from one session to the next: 24 hours between Day 1 and Day 2, then three days between D2 and D5, and so on.
Gradually incorporating new knowledge
There is no scientific consensus on the optimal interval schedule. However, carrying out the first retrieval on the day after the initial moment of learning (thus, on D2) seems beneficial, as a night’s sleep allows the brain to restructure and/or reinforce knowledge learned the previous day. The subsequent intervals can be adjusted according to individual constraints.
This method is flexible; if necessary, a session can be postponed a few days before or after the scheduled date without affecting long-term effectiveness. It is the principle of regular retrieval that is key here.
The expansive schedule also has a considerable practical advantage in that it allows new information to be gradually integrated. For instance, new content can be introduced on D3, because no session on the initial content is scheduled for that day. Adding content gradually makes it possible to memorise large amounts of information in a lasting way without spending more time studying it.
The other method is based on the Leitner box system. In this case, the length of interval before the next retrieval depends on the outcome of the attempt to retrieve information from memory. If the answer was easily retrieved, the next retrieval should happen in a week. If the answer was retrieved with difficulty, then three days need to elapse before the next test. If the answer could not be retrieved, the next test should take place the following day. With experience, you will be able to adjust these intervals and develop your own system.
In short, effective and lasting learning not only requires that a certain amount of effort be made to retrieve information from memory, but a regular repetition of this process, at appropriate intervals, to thwart the process of forgetting.
Émilie Gerbier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Anne-Lorène Vernay, Chargée de cours en stratégie, Grenoble École de Management (GEM)
Renault Zoé est actuellement le véhicule électrique le plus vendu au sein de l’Union européenne (15% de parts de marché) et leader en France (avec 70% de parts de marché).Wikimedia Commons, CC BY
Depuis que Tesla a commercialisé son premier véhicule électrique (VE) au milieu des années 2000, plusieurs constructeurs automobiles tels que le Chinois BYD, Renault-Nissan ou BMW se sont positionnés clairement sur ce marché. Les VE promettent d’améliorer la qualité de vie en milieu urbain grâce à la réduction de la pollution de l’air et des nuisances sonores. L’augmentation significative de la part des VE devrait également réduire les émissions de gaz à effet de serre, notamment si l’électricité utilisée pour la recharge des batteries provient de sources décarbonées.
Selon le dernier rapport global sur les VE de l’Agence internationale de l’énergie, en 2016, le chiffre record de 750 000 véhicules électriques vendus a été atteint, dont plus de la moitié en Chine. Le marché des VE devrait continuer sa croissance dans les années à venir et d’ici à 2020, entre 9 et 20 millions de VE sont attendus sur les routes. À noter également qu’en 2016, les infrastructures de stations de recharge publiques ont crû sur un rythme annuel de 72%.
Pour soutenir le développement des VE, plusieurs pays proposent des réductions de prix aux acheteurs. En France, cette aide peut s’élever à 6 000 euros (plus une prime additionnelle de 2 500 euros si un véhicule diesel de plus de 16 ans est mis à la casse). En 2017, près de 31 000 véhicules électriques ont été immatriculés en France. Ce chiffre correspond à une part de marché de 1,2%, ce qui reste bien en dessous du pays champion du VE, la Norvège, où 17% des ventes sont électriques. En Allemagne pour la même période, les ventes sont un peu moindres mais se situent dans une fourchette assez similaire à la France.
En lien avec ces développements, l’édition hiver 2017-2018 du Baromètre du marché de l’énergie de Grenoble École de Management et du Zentrum für Europäische Wirtschaftsforschung (Centre pour la recherche économique européenne) questionne les perceptions des experts du secteur de l’énergie sur le développement du véhicule électrique en France et en Allemagne.
Adaptation majeure des réseaux de distribution
Experts français et allemands s’accordent pour dire qu’aucun changement majeur ne sera requis au niveau de la production d’électricité et du réseau de transport. Selon une grande majorité des spécialistes de notre échantillon français, une part de 10% de véhicules électriques en France d’ici 2025, soit environ 4 millions de voitures, ne nécessite pas de tels changements.
En revanche, les experts des deux pays pensent que si la part des VE atteint 10%, cela nécessitera de larges investissements dans le réseau de distribution, c’est-à-dire au niveau des transformateurs et des câbles dont la puissance devra être augmentée.
À titre d’exemple, recharger un VE pourrait doubler la demande électrique d’un foyer. Les réseaux de distribution existants pourraient ne pas être en mesure de supporter la charge supplémentaire si les véhicules sont chargés en parallèle des usages conventionnels. Les niveaux d’investissements sont incertains mais une étude récente d’Artelys montre que pour la France, la facture pourrait s’élever à 150 millions d’euros par an et ce jusqu’en 2030. À défaut, le système électrique risque de ne pas pouvoir faire face.
Domination des distributeurs d’électricité
Pour réduire le stress que les VE pourraient imposer au réseau d’électricité et aux capacités de production, un pilotage de la charge peut être mis en œuvre afin de recharger les véhicules électriques en dehors des périodes de pointe et lorsque beaucoup d’électricité renouvelable est injectée dans le réseau. Ainsi, le pilotage des batteries et la charge des VE peut apporter un réel service au système électrique et à son équilibrage. Beaucoup d’incertitudes demeurent sur qui pourrait profiter de ce marché émergent, et l’opinion des spécialistes est assez divisée.
Les experts des deux côtés du Rhin s’attendent à ce que les distributeurs d’électricité jouent un rôle important, quitte à développer des nouvelles compétences (sur la gestion des données par exemple). Cependant, ils ont des opinions assez divergentes en ce qui concerne le rôle des constructeurs automobiles, traders (négociants), start-ups, ou fournisseurs historiques d’électricité, et les experts allemands envisagent un rôle plus prononcé pour ces deux derniers.
Ces divergences peuvent refléter des potentiels différents dans chacun des deux pays et sont révélatrices de l’intérêt exprimé par des acteurs très divers pour ce marché porteur.
Des prix élevés et une faible autonomie
Interrogés sur les freins à l’achat de véhicules électriques, les experts se montrent assez pessimistes et voient de nombreuses barrières à surmonter avant que les VE puissent véritablement concurrencer les voitures thermiques. Ils s’accordent autour du besoin d’améliorer considérablement la performance technologique des VE afin de diminuer leur prix et d’augmenter leur autonomie. Environ 38% des Français et 52% des Allemands pensent que les prix d’achats élevés sont une barrière très importante. Actuellement, les coûts d’achat d’un VE sont de 15 à 25% plus élevés que pour un véhicule traditionnel.
Dans un futur proche, l’augmentation des volumes de production de voitures électriques devrait permettre de réduire les coûts, et notamment le prix des batteries. Les constructeurs automobiles eux-mêmes ne manquent pas d’annoncer la sortie de véhicules électriques à bas coût, comme Tesla et son modèle 3 (vendu à partir de 35 000 dollars) ou Renault qui ambitionne de commercialiser une version électrique de la Renault Kwid pour 7 à 8 000 dollars dès 2019 en Chine.
De même, les VE ont des coûts de fonctionnement plus limités tant en carburant qu’en entretien du fait d’une mécanique simplifiée (pas de vidange, pas besoin de changer les bougies, etc.). Cependant, l’autonomie reste limitée à environ 250 kilomètres pour la plupart des modèles (c’est environ le double pour la Tesla Model S). Ainsi, il n’est pas étonnant de constater que 44% des experts français et 64% des experts allemands voient la faible autonomie des VE comme un frein très important.
Le développement des infrastructures de recharge est également souligné. Ainsi, 61% des Français et 47% des Allemands considèrent le manque de stations de recharge comme une barrière importante – et respectivement 29% et 45% comme très importante. Le fait que la France dispose d’un faible taux de densité de station à 0,1 site pour 1 000 voitures immatriculées (comparé à 3 pour le Land de Baden-Württemberg en Allemagne par exemple) peut expliquer ce résultat.
Les temps de charge trop longs sont aussi considérés comme des barrières importantes par 60% des Français et 56% des Allemands. Vraisemblablement, des temps de charge de batteries jusqu’à 12 heures expliquent ces résultats, même si des sites de charge rapide de 30 minutes existent. Cela devrait s’améliorer dans les années à venir. Ainsi, l’Ademe soutient financièrement l’installation de 13 200 bornes de recharges et plusieurs énergéticiens investissent dans le développement de bornes de recharges (EDF, Engie ou Total notamment).
Il est à noter que les spécialistes allemands s’affichent comme plus pessimistes que leurs collègues français, les barrières à la diffusion du véhicule électrique étant plus importantes selon eux. Cela peut refléter une baisse de confiance dans les annonces faites par l’industrie automobile à propos des performances technologiques des véhicules après le scandale Volkswagen.
Interdiction des véhicules thermiques d’ici 25 ans
En présentant le volet mobilité de son « Plan Climat », le ministre de la Transition écologique et solidaire, Nicolas Hulot, a annoncé l’objectif d’arrêter les ventes de véhicules diesel et essence d’ici 2040 en France. D’autres pays, comme la Norvège, les Pays-Bas et le Royaume-Uni ont des plans pour interdire la mise en circulation de véhicules à moteur thermique dans les vingt prochaines années. Ces interdictions faciliteront la réduction de la pollution en ville, où les concentration d’oxydes d’azote (NOx) posent des problèmes de santé publique importants.
Les experts ont pu exprimer leur opinion sur la possibilité d’une interdiction des voitures diesel et à essence dans les 20-25 prochaines années. À ce sujet, spécialistes français et allemands semblent en désaccord. Alors que la majorité des Français (près de 65%) pensent que les véhicules thermiques seront interdits dans certaines villes en France, peu d’Allemands (13%) pensent que ce sera le cas outre-Rhin. Et si cela arrivait, l’interdiction serait mise en place au niveau national et non local. Signalons aussi que 60% des experts allemands ne pensent pas qu’un ban aura lieu ou jugent la question complètement ouverte – contre environ 14% seulement des experts français.
On peut présumer que les résultats pour la France reflètent l’impact de l’annonce faite par la ville de Paris d’interdire les véhicules diesel et à essence. Il est à noter également que plusieurs villes en régions (comme Grenoble, Lille, Lyon ou Toulouse) ont pris des décisions en ce sens en instaurant des restrictions de circulation (certificat Crit’air) lors des pics de pollution.
L’analyse globale des résultats de ce nouveau Baromètre du marché de l’énergie confirme que la route vers un changement de modèle dominant de la mobilité est encore longue. Si quelques signaux sont favorables et encourageants pour une transition bas carbone, l’adaptation du réseau, la compétitivité des offres et l’origine renouvelable de l’électricité resteront trois défis majeurs pour la décennie à venir.
Le Baromètre du marché de l’énergie mené fin 2017 (en novembre pour l’Allemagne, en décembre pour la France) interroge 250 spécialistes français et allemands qualifiés dans le secteur de l’énergie et opérant dans l’industrie, la science et l’administration publique sur les défis de la mobilité électrique (e-mobilité) pour le secteur de l’électricité. L’intégralité de l’étude pour la France est à retrouver ici et pour l’Allemagne ici.
Les datavisualisations de cet article ont été réalisées par Diane Frances.
Nikolas Wölfing is working at ZEW, a research institute which takes funds from third parties for research and consulting work. He moreover received the “EEX Excellence Award”, a research prize of the European Energy Exchange which is awarded for “outstanding research in the field of energy and exchange trading”.
Olivier Cateura a reçu entre 2003 et 2006 des financements publics de l’ANRT (Association Nationale Recherche Technologie) et privés de Electrabel (Engie) dans le cadre d’une Convention CIFRE (Thèse de doctorat) . Par ailleurs, il est membre-auditeur de l’IHEDN (Institut des Hautes Etudes de Défense Nationale).
Anne-Lorène Vernay, Joachim Schleich, Swaroop Rao et Wolfgang Habla ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur poste universitaire.
Nous présentons ici une data visualisation tirée de notre travail, Inégalités de traitement des étudiants suivant les filières en France publié en 2015 dans le cadre de Sciences en marche. Les données existantes montrent sans ambiguïté que le financement par l’État des étudiants à l’université est largement inférieur à celui consenti aux élèves des CPGE (classes préparatoires aux grandes écoles) et des écoles d’ingénieurs. Cette analyse confirme les résultats obtenus il y a plus de dix ans par S. Zuber. Il faut de plus mettre ces inégalités de financement en regard des inégalités sociales : près de 50 % des étudiants des filières sélectives sont issus de milieux socialement favorisés et un étudiant issu des milieux favorisés a 20 fois plus de chance d’intégrer une grande école qu’un étudiant issu de milieux populaires. En conclusion, l’État finance bien mieux les études des plus aisés, et les politiques universitaires poursuivies depuis des années n’ont en rien résolu ces inégalités sociales.
Cette infographie repose sur trois sources de données.
Pour les universités, le nombre d’étudiants provient des données mises en ligne par le Ministère de l’Enseignement supérieur et de la Recherche (MESR).
En ce qui concerne le budget, en l’absence de données disponibles sur le site du MESR, nous avons utilisé les dotations 2014 publiées par l’Étudiant. Nous avons dû chercher sur Internet et pour chaque université son budget consolidé. L’essentiel des données provient des rapports du HCERES. Suivant l’université, l’année pour laquelle nous avons trouvé un chiffre « officiel » varie entre 2011 et 2015 (budgets prévisionnels). Ces budgets varient de façon relativement marginale d’une année sur l’autre. Étant donné que les effectifs étudiants sont en croissance rapide, la dépense par étudiant à l’université est probablement inférieure à ce que nous rapportons. Enfin, la dépense par étudiant calculée ici est une valeur maximale car une part du budget, qui peut être importante pour certaines universités scientifiques, est consacrée au financement d’activités de recherche. Le budget rapporté au nombre d’étudiants des l’université est aujourd’hui très probablement inférieur à ce que nous rapportons.
Enfin, pour les écoles, les chiffres proviennent du classement 2013 de l’Usine Nouvelle et représentent un échantillon de 126 écoles d’ingénieurs dans lequel nous n’avons conservé que les écoles de statut public ou possédant un contrat quadriennal ou quinquennal avec l’État.
En conclusion de cette note méthodologique, les chiffres indiqués ne sont donc pas à prendre au pied de la lettre et encore moins à l’euro prêt. La situation de certaines écoles ou universités a pu évoluer, leur place aussi. Ils constituent néanmoins une estimation viable de l’état des dépenses par étudiants dans un ensemble significatif d’établissements du supérieur financés par l’État. Ils traduisent enfin une situation étonnamment stable alors que des réformes profondes de l’enseignement supérieur et de la recherche se succèdent depuis plus de dix ans.
La datavisualisation de cet article a été réalisée par Raphaël da Silva.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: – By Pierre Rondeau, Professeur d’économie, Sports Management School
Le média spécialisé L’Équipe, via son magazine hebdomadaire, a publié samedi 24 février le classement des 50 sportifs français les mieux payés (salaires, revenus sponsoring et marketing). Traditionnel top 50 dévoilé tous les ans depuis maintenant une quinzaine d’années, cette hiérarchie permet de dévoiler l’état de l’économie des sportifs hexagonaux et des évolutions structurelles et conjoncturelles.
Que dégagent les investigations de L’Équipe ? Que disent-elles sur le niveau de redistribution et de répartition des rémunérations ? Quels sont les critères qui déterminent le poids des salaires ?
Les sports collectifs sur-représentés
Au total, les 50 sportifs français les mieux payés se partagent 430,2 millions d’euros par an. Le premier est le joueur de football de Manchester United, Paul Pogba, avec 22,2 millions de salaire annuel. Il est suivi par le basketteur Tony Parker, avec 19,7 millions d’euros, puis par l’attaquant de l’équipe de France Antoine Griezmann, à 19,1 millions d’euros.
À noter que les sports collectifs sont sur-représentés puisqu’on ne trouve que deux représentants des sports individuels : le champion de rallye Stéphane Ogier, à la 15e place, émargeant à 9,5 millions d’euros par an, et le double champion olympique de judo Teddy Riner, 37e avec 5,5 millions d’euros.
En théorie, la science économique suppose pourtant que les sports individuels sont plus rentables : on y récompense directement l’utilité de l’agent, alors que dans les sports collectifs, c’est la moyenne des utilités individuelles qui compte (à la fois celles des opportunistes et des agents maximisateurs).
Le sport individuel valorise plus les performances personnelles tandis que dans le sport collectif, les résultats sont basés à la fois sur l’individu et l’équipe, sur le groupe dans son intégralité. Et les rémunérations s’en trouvent alors influencées : un très bon joueur dans une mauvaise équipe n’arrivera jamais à être aussi bien payé qu’un très bon joueur dans un sport individuel, qui ne gagne que grâce à ses performances propres.
Par exemple, en 2015, le classement Forbes des 100 sportifs les mieux payés de l’année avait mis aux deux premières places les boxeurs Floyd Mayweather et Manny Pacquiao, avec respectivement 300 millions et 160 millions de dollars de gains. Le premier représentant des sports collectifs, le footballeur Cristiano Ronaldo, gagnait alors moitié moins que le Philippin Pacquiao, avec 79,6 millions.
Où sont les femmes ?
Au-delà de la comparaison « sport individuel, sport collectif », ce qui interpelle lorsqu’on regarde le classement, c’est l’absence unilatérale de sportives. Aucune femme n’apparaît dans le top 50. D’après L’Équipe, cette absence est malheureusement courante puisque, en 13 ans, la gent féminine n’y a été représentée que 9 fois…
Cet état de fait n’est pas propre au cas français. Quand on regarde le classement mondial des sportifs en 2017, sur les 100 premières places, on ne trouve qu’une seule femme, la tenniswoman Serena Williams… à la 51e place (avec 27 millions de dollars engrangés dans l’année).
Comment expliquer cette malheureuse absence ? Comment expliquer cette inégalité sociétale généralisée et internationalisée ?
Le premier élément est économique et médiatique. Sur le marché, le sport féminin ferait, par hypothèse, moins d’argent et moins d’audience que le sport masculin. Résultat : la Ligue de football professionnel française coûte, en droits de retransmission télévisée, 748,5 millions d’euros par an, contre un peu plus d’un million d’euros pour la première division féminine.
Et qui dit moins de valeur économique dit moins de médiatisation, moins de sponsors, moins de partenariats marketing et merchandising. En 2012, 81 % des montants investis par les 100 premiers sponsors concernaient le sport masculin, et seuls 3 % le sport féminin.
Seulement, dans les faits, rien ne justifie ces inégalités économiques. Lorsqu’on se penche sur les audiences télévisuelles, on se rend compte que le sport féminin, notamment le football, fait autant voire plus d’audience que le sport masculin.
Un match de Ligue 1 diffusé sur Canal+ ou beIN Sports enregistre, en moyenne, 1 million de téléspectateurs cumulés contre parfois plus de 2 millions pour des matchs de la Coupe du monde féminine et certains matchs du Championnat de France, en clair.
De plus, d’après une étude publiée par Havas Sports & Entertainment en 2013, 70 % des Français trouvent le sport féminin aussi intéressant que le sport masculin. La différence salariale n’a donc pas lieu d’être.
Tous logés à la même enseigne ?
En étudiant en profondeur le classement, on constate une répartition et une distribution inégalitaire.
Paul Pogba, le sportif le mieux payé, gagne 17,2 millions d’euros de plus que le défenseur du Barça Samuel Umtiti, dernier du top 50, à 5 millions d’euros par an. Le salaire moyen (entre les 50 sportifs) s’affiche à 8,6 millions d’euros alors que la médiane (qui coupe en deux parties égales l’effectif des sportifs) n’est qu’à 6,9 millions d’euros.
En statistiques, on admet que le groupe étudié est inégalitaire lorsque la moyenne n’est pas égale à la médiane. Et si cette dernière est inférieure à la moyenne, les inégalités se situent en haut de l’échelle. Autrement dit, les très très riches gagneraient énormément, et les « moins » riches se partageraient équitablement leurs gains.
En utilisant des outils d’analyse plus pointus, le coefficient de Gini (meilleur indicateur de mesure des inégalités) apparaît à 0,36 contre 0,29 dans le reste de la société française. Dans une situation d’égalité parfaite, cet indice est égal à 0.
La répartition des salaires des 50 sportifs français les plus riches est donc plus inégalitaire que dans la société elle-même. Par comparaison, ce niveau de 0,36 se retrouve dans les sociétés britannique et états-unienne. Même chez les riches, il y a des écarts importants.
Comment expliquer ces rémunérations ?
Reste maintenant à expliquer et à comprendre ces salaires aussi élevés. Au-delà de la question de l’inflation, la hausse des salaires est multifactorielle.
Premièrement, la mondialisation et l’internationalisation du sport ont provoqué une augmentation considérable de la valeur des droits télévisés : 1 milliard d’euros en moyenne dans le foot européen, 2,1 milliards d’euros pour la NBA (le championnat de basket nord-américain), 1,5 milliard pour les Jeux olympiques, etc.
Ensuite, cette inflation des droits a attiré de nouveaux investisseurs étrangers, les « sugar daddies ». Ces derniers, russes, chinois, qataris, émiratis, etc., ont injecté énormément d’argent (d’abord dans un but symbolique avant lucratif) et soutenu les budgets du sport.
Puis, toujours à travers la mondialisation, le nombre de fans a augmenté, ce qui a permis une hausse considérable des recettes. Plus de fans à travers le monde, ce sont plus de ventes de maillots, de goodies, de places, de billets… donc plus d’argent à dépenser et à redistribuer aux acteurs.
D’ailleurs, dans un sens très marxiste, le sportif est à la fois un « bourgeois » et un « prolétaire ». Il est le propriétaire des moyens de production et de sa force de travail. C’est lui, et lui seul, qui crée le spectacle et attire les foules de consommateurs. Il n’y a pas d’intermédiaire ou de donneur d’ordres.
La rémunération se base sur la capacité de production du sportif, dont le salaire correspond parfaitement au fruit des ventes. Ainsi, puisque le salaire est négocié en fonction du niveau réel, ceux qui gagnent le plus présentent une productivité marginale supérieure à la moyenne et, par le jeu de la concurrence, poussent continuellement leur contrat à la hausse.
Karl Marx, père du communisme et de la lutte des classes, justifie ici le niveau des rémunérations des sportifs. C’est parce qu’ils rapportent et qu’ils sont bons qu’ils sont bien payés : « De chacun selon ses moyens, à chacun selon ses besoins. »
Les datavisualisations de cet article ont été réalisées par Diane Frances.
Pierre Rondeau ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Philippe Dupuy, Professeur Associé au département Gestion, Droit et Finance, Grenoble École de Management (GEM)
La progression forte de la notoriété de ces technologies auprès des responsables financiers devrait leur assurer un avenir radieux.Bergadder/Pixabay, CC BY
Grenoble École de Management et l’association des Directeurs financiers et des contrôleurs de gestion (DFCG) recueillent chaque trimestre l’avis des responsables financiers français. Les résultats sont agrégés au niveau mondial par un réseau d’universités coordonnées par Duke University aux États-Unis. Pour le premier trimestre 2018, l’enquête s’est déroulée du 13 février au 2 mars 2018.
Ce trimestre, nous avons interrogé les entreprises au sujet de l’émergence des nouvelles technologies telles que la blockchain, les contrats intelligents, l’intelligence artificielle ou encore le machine learning. Il est frappant de constater à la lecture des résultats à quel point ces technologies sont désormais connues du plus grand nombre.
Ainsi, grâce à la médiatisation du bitcoin et de ses soubresauts, 84 % des responsables financiers européens nous disent avoir une connaissance au moins partielle de la blockchain sur laquelle s’appuie le protocole de gestion du bitcoin. Il y a exactement deux ans, à cette même question, 57 % des répondants nous disaient n’en avoir jamais entendu parler. De même, les contrats intelligents gagnent du terrain, du moins en notoriété : un directeur financier sur deux serait désormais capable d’en définir les grands principes, contre moins d’un sur trois en 2016. Il y a fort à parier que la diffusion importante des concepts clés de ces technologies permettra leur adoption rapide par les entreprises.
En revanche, les crypto-actifs comme le bitcoin et l’ethereum n’ont pas la côte auprès des responsables financiers : moins de 10 % d’entre eux estiment que ces instruments pourraient avoir un impact éventuel sur leurs activités dans l’avenir. À titre de comparaison, 43 % pensent que l’intelligence artificielle aura un impact sur leur fonction et jusqu’à 66 % pour le big data. La compréhension de ces enjeux et de leurs impacts potentiels semble identique, quelle que soit la taille des entreprises observées. En revanche, le secteur d’activité est un facteur clairement différenciant : les responsables financiers des secteurs du conseil et de la banque semblent en avance sur leurs pairs dans la compréhension de ces mécanismes.
Vers une réduction des effectifs ?
Ces nouvelles technologies devraient bientôt permettre de réduire les coûts de traitement des données, notamment par la réduction des erreurs et la hausse de la productivité. Doit-on s’attendre à une révolution en entreprise ? En Europe, un peu moins de la moitié des entreprises ont déjà réduit ou s’attendent à réduire les effectifs de la fonction finance d’ici à cinq ans. Mais si ces nouvelles technologies pouvaient avoir un impact à moyen terme, c’est essentiellement l’émergence de nouveaux modes de fonctionnement (du type centre de services partagés ou centres d’expertise, par exemple) qui justifie ou a justifié ces réorganisations dans l’immédiat.
Aux États-Unis, le phénomène est comparable – même si ces nouveaux modes d’organisation semblent moins répandus qu’en Europe. Ainsi, moins de 35 % des directeurs administratifs et financiers américains disent bien connaître les centres de services partagés ou centres d’expertise, alors que ce chiffre est supérieur à 50 % en Europe. En conséquence, moins de 30 % des entreprises américaines ont déjà connu ou envisagent des réductions d’effectifs dans la fonction finance.
La blockchain et l’intelligence artificielle n’ont donc pas encore pris le dessus mais sont aux portes des entreprises. La progression forte de la notoriété de ces technologies auprès des responsables financiers devrait leur assurer un avenir radieux et relancer une vague de réorganisation à moyen terme.
Climat des affaires au beau fixe
Notre indicateur de climat des affaires enregistre de nouveaux points hauts ce trimestre en Europe. Il s’établit à 67 au premier trimestre 2018 contre 66,9 au quatrième trimestre 2017 sur une échelle de zéro à cent. Ce niveau est compatible avec une croissance soutenue de l’économie, et ce d’autant plus que l’ensemble des pays pour lesquels nous avons des données dépasse le niveau de 55 – à l’exception de la Grèce. La France et l’Allemagne sont les moteurs principaux de cette performance. L’Hexagone enregistre une nouvelle amélioration qui porte l’indicateur de climat des affaires à 70,1 contre 64,5 au trimestre précédent. Outre-Rhin, le niveau de confiance reste élevé, même s’il s’affiche un recul à 76,8 contre 78,6 précédemment.
Signe d’un climat des affaires très favorable à la croissance, la hausse de la confiance est désormais visible sur l’ensemble des entreprises. En particulier, les entreprises de taille intermédiaire (ETI) et les PME semblent désormais avoir rattrapé leur retard. Le regain d’activité, d’abord enregistré par les plus grandes entreprises portées par la reprise mondiale, se diffuse maintenant dans l’ensemble de l’économie.
Aux États-Unis, la tempête boursière qui a secoué Wall Street début février ne semble pas avoir eu d’incidence sur la confiance des responsables financiers. Le climat des affaires ressort ainsi à 71,2 ce trimestre, contre 68,6 au précédent. L’adoption de la réforme fiscale du président Trump par le Congrès, courant décembre, est le moteur principal de ce regain d’optimisme. En particulier, les entreprises nous disent penser que la réforme aura probablement un impact favorable sur l’emploi, les salaires et les investissements dans les années à venir.
Elle pourrait notamment rendre les États-Unis plus attractifs en termes d’investissements pour les entreprises étrangères. Ainsi, 50 % des entreprises asiatiques percevraient le pays de l’Oncle Sam comme une destination plus attractive pour leurs investissements suite à la réforme fiscale. Enfin, dans le contexte actuel de difficulté à trouver et retenir les talents, 44 % des entreprises américaines envisagent, selon nos données, une augmentation des salaires grâce aux ressources dégagées par la réforme fiscale.
Si le climat des affaires reste élevé partout dans le monde, nous notons néanmoins pour ce trimestre une chute significative en Asie : l’indicateur recule à 61 contre 66,3 au trimestre précédent. Le risque sur les devises est mis en avant par les entreprises interrogées comme un frein à l’activité dans la zone. En Amérique latine, le climat des affaires continue de rebondir pour atteindre 70 au Mexique, 69 au Chili et 62 au Brésil. Ce rebond est frappant puisque ces trois pays ont enregistré des niveaux inférieurs à 50 au cours des deux années précédentes.
Enfin, en Afrique, le climat des affaires enregistre un rebond soudain, entraîné notamment pas l’Afrique du Sud, où la démission du président Zuma semble faire souffler un vent d’optimisme, portant le climat des affaires à 59 contre 42 au trimestre précédent.
L’enquête Duke University–Grenoble École de Management mesure chaque trimestre depuis plus de 20 ans le climat des affaires tel que perçu par les responsables financiers des entreprises à travers le monde. L’enquête est courte (environ 10 questions). Elle recueille plus de 1 000 réponses anonymes d’entreprises de tous secteurs et de toutes tailles. C’est désormais la plus grande enquête de ce type dans le monde. Une analyse détaillée par pays peut être envoyée à chaque participant.
Les datavisualisations de cet article ont été réalisées par Diane Frances.
Philippe Dupuy ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Luc Rouban, Directeur de recherche CNRS, Sciences Po
La réforme constitutionnelle proposée par le gouvernement a pour objet de rationaliser, une fois de plus, le fonctionnement de la Ve République en se focalisant uniquement sur le Parlement. C’est donc bien la démocratie représentative dans sa fonction législative et délibérative qui est jugée malade.
On en connaît les principaux ressorts : réduction du nombre de parlementaires, interdiction de cumuler plus de trois mandats dans le temps, simplification de la procédure législative pouvant aller jusqu’à restreindre le droit d’amendement en fonction de la taille des groupes politique, introduction d’une dose – pour l’instant indéterminée – de proportionnelle afin d’équilibrer la représentation des diverses sensibilités politiques, notamment celle du FN, dont la candidate (Marine Le Pen) a obtenu plus de 10 millions de voix au second tour de l’élection présidentielle et qui se retrouve avec 7 députés seulement.
Au-delà du flou des propositions dont le contour exact n’est toujours pas déterminé et fait l’objet de négociations musclées avec le président du Sénat, cette réforme s’inscrit dans un renforcement sans précédent de la fonction présidentielle. Le seul contrepoids à cette évolution est de supposer que la réduction du nombre de parlementaires et l’augmentation de leurs moyens techniques devraient permettre un meilleur contrôle des politiques publiques – ce qui reste à prouver. Comme il reste à prouver que le contrôle a posteriori peut remplacer la fonction délibérative a priori.
On assiste donc à un véritable retournement du macronisme. Ce dernier, dans une posture presque gaullienne, s’était construit en 2016 contre les oligarchies partisanes sur la base de réseaux militants pratiquant avec fierté la participation high-tech. Il s’agissait d’inventer une nouvelle façon de faire de la politique, une méthode réticulaire regroupant tous les « Marcheurs » de bonne volonté suffisamment diplômés pour utiliser les réseaux sociaux et s’engageant dans des délibérations permettant de faire remonter les demandes du terrain.
Deux ans plus tard, ce même macronisme produit une série de réformes peu ou pas négociées avec les partenaires sociaux, notamment celle de la SNCF, et une réforme constitutionnelle devant réduire la part de parlementarisme au sein de la Ve République.
Pour comprendre ce qui se joue dans la vie politique française, on peut faire l’hypothèse qu’un nouveau clivage est né, opposant les tenants du pouvoir vertical aux partisans du pouvoir horizontal.
Les deux représentations du pouvoir
L’aspiration à la délibération et à la participation citoyenne a sans doute été l’un des marqueurs de l’élection présidentielle de 2017. Elle s’est exprimée, bien que de manière malheureuse et caricaturale, dans l’organisation des primaires à gauche comme à droite, mais aussi dans les programmes de la plupart des candidats, à la notable exception de celui de François Fillon.
Il est indéniable qu’une transformation du paysage politique français s’est opérée depuis quelques années, sous l’influence notamment d’expériences participatives locales ou de tentatives de relancer la démocratie directe en créant de nouveaux lieux de rencontres où la parole politique puisse se construire et se libérer, comme l’a illustré l’aventure de Nuit debout.
La vague 9 du Baromètre de la confiance politique du Cevipof, dont le terrain a été réalisé en décembre 2017, nous apprend que la confiance dans les institutions politiques, loin de s’améliorer avec l’arrivée au pouvoir d’Emmanuel Macron, s’est au contraire tassée de manière spectaculaire : la confiance dans la plupart des catégories d’élus, y compris les élus locaux, a perdu environ une dizaine de points par rapport aux résultats engrangés une année avant, alors que François Hollande faisait l’objet de toutes les réprobations.
Comme le macronisme s’est (aussi) présenté en tant que mouvement réformateur ne voulant plus s’embarrasser de tergiversations ou de débats, on s’est interrogé sur ce qui faisait aux yeux des enquêtés un « bon » responsable politique au début de l’année 2018. S’agit-il de quelqu’un qui sait s’entourer d’experts compétents, prendre ses décisions sans tenir compte des critiques (indicateurs de pouvoir vertical) ou bien de quelqu’un qui prend l’avis du plus grand nombre avant de décider et qui sait passer des compromis pour éviter les conflits (indicateurs de pouvoir horizontal) ?
Le macronisme : libéralisme culturel, tolérance sociétale et pratique verticale du pouvoir
Ces caractéristiques ont été présentées sous la forme de deux questions permettant aux enquêtés de dire ce qu’ils plaçaient en première et seconde position. Le regroupement des réponses, en tenant compte de la priorité donnée à chaque item, montre que les enquêtés se répartissent en deux groupes égaux puisque 50 % choisissent le pouvoir vertical, 47 % le pouvoir horizontal et 3 % ne savent pas.
L’analyse montre, tout d’abord, que les partisans du pouvoir vertical se rencontrent surtout chez les électeurs d’Emmanuel Macron (64 %) et de François Fillon (68 %) au premier tour de l’élection présidentielle. En revanche, ceux de Benoît Hamon sont bien plus partagés (54 %), alors que ceux de Jean‑Luc Mélenchon le rejettent (38 %), comme ceux de Marine Le Pen (34 %). Dans l’esprit de ses électeurs, et non pas de ses militants, le macronisme n’est donc pas assimilé à un pouvoir participatif horizontal mais bien à une volonté d’appliquer de manière assez unilatérale le programme de réformes.
Le second résultat contre-intuitif de l’enquête est de montrer que si les catégories supérieures et diplômées se caractérisent par un haut niveau de libéralisme culturel et de tolérance sociétale, elles se distinguent également par leur défense du pouvoir vertical. Comme quoi le libéralisme culturel ne préjuge pas du type de pouvoir ou de démocratie que les enquêtés défendent.
C’est ainsi que 38 % de ceux ayant un niveau CAP-BEP défendent la vision verticale contre 47 % de ceux ayant le niveau du bac et 58 % ayant au moins une licence. Le niveau de libéralisme culturel (tel qu’on peut le mesurer sur la base de questions portant sur le rétablissement de la peine de mort, le nombre jugé excessif ou non d’immigrés et la suppression de la loi autorisant le mariage homosexuel) et la représentation du « bon élu » sont donc relativement déconnectés.
On est ici au cœur de l’ambivalence du managérialisme qui renforce le pouvoir hiérarchique en le couvrant d’un masque de libre communication et de culture soixante-huitarde. Cela montre aussi que les électeurs (et non pas les militants) des mouvements « populistes » qui sont, en l’espèce, défenseurs du pouvoir horizontal, ne sont pas nécessairement à la recherche d’un modèle autoritaire, et ne sont pas nécessairement caractérisés par une « personnalité autoritaire ». L’autoritarisme a peut-être pris d’autres chemins aujourd’hui.
Pouvoir vertical et libéralisme économique sont associés
En revanche, la défense du pouvoir vertical s’intensifie avec le degré de libéralisme économique. On a créé un indice sur la base de trois questions (il faut réduire le nombre de fonctionnaires, faire confiance aux entreprises pour sortir de la crise économique, ne pas prendre aux riches pour donner aux pauvres afin d’assurer la justice sociale) et allant donc de 0 à 3 en fonction du nombre de réponses positives. On voit alors que les enquêtés au niveau 0 du libéralisme économique choisissent le pouvoir vertical à concurrence de 32 % contre 42 % de ceux qui se situent au niveau 1 puis 54 % de ceux qui sont au niveau 2 et 67 % de ceux de niveau 3. La proportion de ceux qui préfèrent le pouvoir horizontal varie de manière inverse.
On peut mesurer ici le fait que la dimension « managériale » du macronisme ne signifie nullement une perspective de pouvoir horizontal ou participatif, comme pourraient le laisser croire les métaphores entrepreneuriales utilisées lors de la campagne. De fait, 22 % des électeurs d’Emmanuel Macron se situent au niveau 3 de l’indice de libéralisme économique contre il est vrai 62 % de ceux de François Fillon mais 15 % de ceux de Marine Le Pen, 4 % de ceux de Jean‑Luc Mélenchon et 3 % de ceux de Benoît Hamon.
Cette association entre les représentations de la démocratie et le niveau de libéralisme économique renvoie à l’appartenance sociale des enquêtés. Les deux représentations de la démocratie se retrouvent dans la distribution en grandes classes sociales, construites sur la base des occupations professionnelles selon la grille de lecture retenue pour les travaux précédents.
Le sens de la révision constitutionnelle
Le clivage entre pouvoir vertical et pouvoir horizontal détermine le niveau de la confiance placée dans les institutions. Les enquêtés préférant le pouvoir horizontal ont moins confiance dans les institutions politiques, nationales ou locales, que ceux qui préfèrent le pouvoir vertical.
Tous derrière et lui devant : le Président Macron, lors des cérémonies du 14 juillet 2017.
De la même façon, la critique des élus est plus forte chez les partisans du pouvoir horizontal : 74 % d’entre eux contre 52 % des tenants du pouvoir vertical estiment que la plupart des responsables politiques ne se soucient que des riches et des puissants et 63 % des premiers contre 37 % des seconds pensent que c’est le peuple et non les responsables politiques qui devrait prendre les décisions les plus importantes.
La révision constitutionnelle actuelle s’appuie donc sur la dénonciation assez générale des élus (ils sont trop nombreux, plutôt corrompus et ne travaillent pas beaucoup) développée chez les partisans du pouvoir horizontal pour renforcer le pouvoir vertical associé au macronisme.
Au-delà de son élitisme, confirmé par le profil des nouveaux députés de la République en Marche, le macronisme se présente comme un moment politique où se joue une confrontation non seulement entre deux visions de la démocratie mais aussi entre deux anthropologies du pouvoir. La réforme constitutionnelle en cours doit venir séparer encore un peu plus le personnel politique national et le personnel politique local.
Une attente de proximité
L’agrandissement mécanique des circonscriptions lié à la réduction du nombre d’élus va rendre plus difficile le contact avec les électeurs. Or c’est bien la proximité physique et sociale des électeurs et des élus qui reste au sein de la relation de confiance politique, qui est elle-même au cœur de la démocratie représentative. Et c’est bien cette attente de proximité qui nourrit la vision d’un pouvoir horizontal participatif.
La révision constitutionnelle, telle qu’elle est actuellement proposée, entend dissocier le national du local et rendre le national encore plus lointain et abstrait en laissant le local se confronter aux difficultés quotidiennes. Comment peut-on penser que cette réforme puisse améliorer la confiance politique dans les institutions ?
De plus, l’instauration d’une dose de proportionnelle va contribuer à relancer les manœuvres au sein des partis politiques, comme on le voit déjà lors des élections régionales. La plupart des réformes nées d’une ingénierie institutionnelle hasardeuse comme le quinquennat ou les primaires n’ont fait qu’aggraver les problèmes.
La révision constitutionnelle actuelle, tout comme les conflits sociaux qui secouent le secteur public, partagent des structures communes dans le sens où l’on voit s’affronter dans chaque cas une revendication de terrain – soucieuse de la réalité vécue par les élus et les agents – à une norme juridique ou financière devant décliner un modèle de pouvoir désincarné et impalpable.
À travers l’opposition entre pouvoir vertical et pouvoir horizontal se joue donc une opposition entre deux modes d’interaction politique, l’un virtuel et numérique, l’autre physique et humain.
Les datavisualisations de cet article ont été réalisées par Diane Frances.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Guillaume Cabanac a été distingué par la revue _Nature_ comme l’un des dix scientifiques de l’année 2021.DCCE, Université de Toulouse, Fourni par l’auteur
Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l’a rencontré.
The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?
Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.
Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.
Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !
Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…
G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.
Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.
De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.
Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».
Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.
Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.
Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.
Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?
G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.
Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?
G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.
Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.
Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.
Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.
Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?
G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.
Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.
Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.
G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.
L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.
Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?
G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.
Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».
Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.
En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?
G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.
Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.
Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l’Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.
Source: – By Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d’ondes acoustiques et de la physique des instruments de musique, Le Mans Université
Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.
Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.
Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.
La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La musique, une affaire de physiciens ?
À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).
Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.
Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.
Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.
Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.
Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.
Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s’explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.
Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.
Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.
Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !
Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.