Paintings by German artist Emil Nolde (1867-1956) were recently on display at the Musée Picasso in Paris as part of an exhibition on what the Nazis classified as “degenerate art”. At first glance, his works fit perfectly, but recent research shows that Nolde’s relationship to Nazism is much more nuanced than the exhibition revealed.
The German Lesson: a postwar literary classic
While Nolde was one of the many victims of the Third Reich’s repressive responses to “degenerate art”, he was also one of Nazism’s great admirers. The immense popularity of The German Lesson (1968) by author Siegfried Lenz, however, greatly contributed to creating the legend of Nolde as a martyr of the Nazi regime.
The cover of the French edition, which was on sale in the Musée Picasso bookstore, subtly echoes one of Nolde’s works, Hülltoft Farm, which hung in the exhibition.
Set against the backdrop of Nazi policies on “degenerate art”, the novel is about a conflict between a father and son. It addresses in literary form the central postwar issue of Vergangenheitsbewältigung, a term referring to the individual and collective work of German society on coming to terms with its Nazi past.
The German Lesson was met with huge success upon publication. Since then, it has become a classic of postwar German literature. Over 2 million copies have been sold across the world, and the novel has been translated into more than 20 languages. It is still studied in Germany as part of the national school curriculum. Adding to its popularity, the book was adapted for the screen in 1971 and in 2019. More than 50 years after its publication, The German Lesson continues to shape the way we think about Nazi Germany.
Max Ludwig Nansen, a fictional painter turned martyr
Set in Germany in the 1950s, the novel is told through the eyes of Siggi, a young man incarcerated in a prison for delinquent youths. Asked to pen an essay on the “joys of duty”, he dives into his memories of a childhood in Nazi Germany as the son of a police officer.
He remembers that his father, Jens Ole Jepsen, was given an order to prevent his own childhood friend, Max Ludwig Nansen, from painting. As a sign of protest against the painting ban, Nansen created a secret collection of paintings titled “the invisible pictures”. Because he was young enough to appear innocent, Siggi was used by his father to spy on the painter.
Siggi found himself torn between the two men, who related to duty in radically opposite ways. While Jepsen thought it his duty to follow the orders given to him, Nansen saw art as his only duty. Throughout the novel, Siggi becomes increasingly close to the painter, whom he sees as a hero, all the while distancing himself from his father, who in turn is perceived as a fanatic.
The novel’s point of view, that of a child, demands of its reader that they complete Siggi’s omissions or partial understanding of the world around him with their adult knowledge. This deliberately allusive narrative style enables the author to elude the topic of Nazism – or at least to hint at it in a covert way, thus making the novel acceptable to a wide German audience at the time of its publication in 1968.
Nevertheless, the book leaves little room for doubt on the themes it tackles. While Nazism is never explicitly named, the reader will inevitably recognize the Gestapo (the political police of the regime) when Siggi speaks of the “leather coats” who arrest Nansen. Readers will also identify the ban on painting issued to Nansen as a part of Nazi policies on “degenerate art”. And, what’s more, they will undoubtedly perceive the real person hiding behind the fictional character of Max Ludwig Nansen: Emil Nolde, born Hans Emil Hansen.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Emil Nolde, a real painter become legend
Much like his fictional counterpart Max Ludwig Nansen, the painter Emil Nolde fell victim to Nazi policies aimed at artists identified as “degenerate”. More than 1,000 of his artworks were confiscated, some of which were integrated into the 1937 travelling exhibition on “degenerate art” orchestrated by the regime. Nolde was banned from the German art academy, and he was forbidden to sell and exhibit his work.
A photograph of Nazi propagandist Joseph Goebbels’ visit to the exhibition titled Entartete Kunst (Degenerate Art) in Munich, 1937. At left, from top, two paintings by Emil Nolde: Christ and the Sinner (1926) and the Wise and the Foolish Virgins (1910), a painting that has disappeared. Wikimedia
After the collapse of the Nazi regime, the tide turned for this “degenerate” artist. Postwar German society glorified him as a victim and opponent of Nazi politics, an image which Nolde carefully fostered. In his memoirs, he claimed to have been forbidden to paint by the regime, and to have created a series of “unpainted pictures” in a clandestine act of resistance.
Countless exhibits on Nolde, in Germany and around the world, served to perpetuate the myth of a talented painter, fallen victim to the Nazi regime, who decided to fight back. His works even made it into the hallowed halls of the German chancellery. Helmut Schmidt, chancellor of the Federal Republic of Germany from 1974 to 1982, and Germany’s former chancellor Angela Merkel decorated their offices with his paintings.
The popularity of The German Lesson, inspired by Nolde’s life, further solidified the myth – until the real Nolde and the fictional Nansen became fully inseparable in Germany’s collective imagination.
Twilight of an idol
Yet, the historical figure and the fictional character could not be more different. Research conducted for exhibits on Nolde in Frankfurt in 2014 and in Berlin in 2019 revealed the artist’s true relationship to Nazism to the wider public.
Nolde was indeed forbidden from selling and exhibiting his works by the Nazi regime. But he was not forbidden from painting. The series of “unpainted pictures”, which he claimed to have created in secret, are in fact a collection of works put together after the war.
What’s more, Nolde joined the Nazi Party as early as 1934. To make matters worse, he also hoped to become an official artist of the regime, and he was profoundly antisemitic. He was convinced that his work was the expression of a “German soul” – with all the racist undertones that such an affirmation suggests. He relentlessly tried to convince Goebbels and Hitler that his paintings, unlike those of “the Jews”, were not “degenerate”.
Why, one might ask, did more than 70 years go by before the truth about Nolde came out?
Yes, the myth built by Nolde himself and solidified by The German Lesson served to eclipse historical truth. Yet this seems to be only part of the story. In Nolde’s case, like in many others that involve facing a fraught national past, it looks like fiction was a great deal more attractive than truth.
In Lenz’s book, the painter Nansen claims that “you will only start to see properly […] when you start creating what you need to see”. By seeing in Nolde the fictional character of Nansen, Germans created a myth they needed to overcome a painful past. A hero, who resisted Nazism. Beyond the myth, reality appears to be more complex.
Ombline Damy received funding from la Fondation Nationale des Sciences Politiques (National Foundation of Political Sciences, or FNSP) for her thesis.
In the face of US President Donald Trump’s wavering commitments and Russian President Vladimir Putin’s inscrutable ambitions, the talk in European capitals is all about rearmament.
To that end, the European Commission has put forward an €800 billion spending scheme designed to “quickly and significantly increase expenditures in defence capabilities”, in the words of Commission President Ursula von der Leyen.
But funding is only the first of many challenges involved when pursuing military innovation. Ramping up capabilities “quickly and significantly” will prove difficult for a sector that must keep pace with rapid technological change.
Of course, defence firms don’t have to do it alone: they can select from a wide variety of potential collaborators, ranging from small and medium-sized enterprises (SMEs) to agile start-ups. Innovative partnerships, however, require trust and a willingness to share vital information, qualities that appear incompatible with the need for military secrecy.
That is why rearming Europe requires a new approach to secrecy.
A paper I co-authored with Jonathan Langlois of HEC and Romaric Servajean-Hilst of KEDGE Business School examines the strategies used by one leading defence firm (which we, for our own secrecy-related reasons, renamed “Globaldef”) to balance open innovation with information security. The 43 professionals we interviewed – including R&D managers, start-up CEOs and innovation managers – were not consciously working from a common playbook. However, their nuanced and dynamic approaches could serve as a cohesive role model for Europe’s defence sector as it races to adapt to a changing world.
How flexible secrecy enables innovation
Our research took place between 2018 and 2020. At the time, defence firms looked toward open innovation to compensate for the withdrawal of key support. There was a marked decrease in government spending on military R&D across the OECD countries. However, even though the current situation involves more funding, the need for external innovation remains prevalent to speed up access to knowledge.
When collaborating to innovate, firms face what open innovation scholars have termed “the paradox of openness”, wherein the value to be gained by collaborating must be weighed against the possible costs of information sharing. In the defence sector – unlike, say, in consumer products – being too liberal with information could not only lead to business losses but to grave security risks for entire nations, and even prosecution for the executives involved.
Although secrecy was a constant concern, Globaldef’s managers often found themselves in what one of our interviewees called a “blurred zone” where some material could be interpreted as secret, but sharing it was not strictly off-limits. In cases like these, opting for the standard mode in the defence industry – erring on the side of caution and remaining tight-lipped – would make open innovation impossible.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Practices that make collaboration work
Studying transcripts of more than 40 interviews along with a rich pool of complementary data (emails, PowerPoint presentations, crowdsourcing activity, etc.), we discerned that players at Globaldef had developed fine-grained practices for maintaining and modulating secrecy, even while actively collaborating with civilian companies.
Our research identifies these practices as either cognitive or relational. Cognitive practices acted as strategic screens, masking the most sensitive aspects of Globaldef’s knowledge without throttling information flow to the point of preventing collaboration.
Depending on the type of project, cognitive practices might consist of one or more of the following:
Encryption: relabelling knowledge components to hide their nature and purpose.
Obfuscation: selectively blurring project specifics to preserve secrecy while recruiting partners.
Simplification: blurring project parameters to test the suitability of a partner without revealing true constraints.
Transposition: transferring the context of a problem from a military to a civilian one.
Relational practices involved reframing the partnership itself, by selectively controlling the width of the aperture through which external parties could view Globaldef’s aims and project characteristics. These practices might include redirecting the focus of a collaboration away from core technologies, or introducing confidentiality agreements to expand information-sharing within the partnership while prohibiting communication to third parties.
When to shift strategy in defence projects
Using both cognitive and relational practices enabled Globaldef to skirt the pitfalls of its paradox. For example, in the early stages of open innovation, when the firm was scouting and testing potential partners, managers could widen the aperture (relational) while imposing strict limits on knowledge-sharing (cognitive). They could thereby freely engage with the crowd without violating Globaldef’s internal rules regarding secrecy.
As partnerships ripened and trust grew, Globaldef could gradually lift cognitive protections, giving partners access to more detailed and specific data. This could be counterbalanced by a tightening on the relational side, eg requiring paperwork and protocols designed to plug potential leaks.
As we retraced the firm’s careful steps through six real-life open innovation partnerships, we saw that the key to this approach was in knowing when to transition from one mode to the other. Each project had its own rhythm.
For one crowdsourcing project, the shift from low to high cognitive depth, and high to low relational width, was quite sudden, occurring as soon as the partnership was formalised. This was due to the fact that Globaldef’s partner needed accurate details and project parameters in order to solve the problem in question. Therefore, near-total openness and concomitant confidentiality had to be established at the outset.
In another case, Globaldef retained the cognitive blinders throughout the early phase of a partnership with a start-up. To test the start-up’s technological capacities, the firm presented its partner with a cognitively reframed problem. Only after the partner passed its initial trial was collaboration initiated on a fully transparent footing, driven by the need for the start-up to obtain defence clearance prior to co-developing technology with Globaldef.
How firms can lead with adaptive secrecy
Since we completed and published our research, much has changed geopolitically. But the high-stakes paradox of openness is still a pressing issue inside Europe’s defence firms. Managers and executives are no doubt grappling with the evident necessity for open innovation on the one hand and secrecy on the other.
Our research suggests that, like Globaldef, other actors in Europe’s defence sector can deftly navigate this paradox. Doing so, however, will require employing a more subtle, flexible and dynamic definition of secrecy rather than the absolutist, static one that normally prevails in the industry. The defence sector’s conception of secrecy must also progress from a primarily legal to a largely strategic framework.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
High-income professionals over the age of 50 make up 70% of all consumers of bulk products. DCStudio/Shutterstock
The bulk distribution model has been in the news again lately, with well-known brands such as The Laughing Cow making their way into French supermarkets. Stakeholders in the bulk sector are seeking to introduce innovations in order to expand and democratise the concept. But is the bulk model such a clear-cut approach to consuming in a sustainable way?
Bulk can be described as a consumer practice with a lower impact on the environment, since it involves the sale of products with no packaging, plastic or unnecessary waste and the use of reusable containers by consumers. In this type of distribution, predetermined manufacturer packaging becomes a thing of the past.
In this model, distributors and consumers take on the task of packaging the product themselves to ensure the continuity of the multiple logistical and marketing functions that packaging usually fulfils. Unaccustomed to this new role, stakeholders in the bulk sector may make mistakes or act in ways that run counter to the environmental benefits that are generally expected to result from this practice.
Contrary to the usually positive discourse on bulk products, our research points to the perverse and harmful effects of bulk distribution. When bulk stakeholders are left to “cope with” this new task of packaging products, can bulk still be described as ecologically sound?
A new approach to packaging
Packaging has always played a key role. It performs multiple functions that are essential for product distribution and consumption:
Logistical functions to preserve, protect and store the product: packaging helps to limit damage and loss, particularly during transport.
Marketing functions for product or brand recognition, which is achieved by distinctive colours or shapes to create on-shelf appeal. Packaging also has a positioning function, visually conveying a particular range level, as well as an informative function, serving as a medium for communicating a number of key elements such as composition, best-before date, etc.
Environmental functions, such as limiting the size of packaging and promoting certain types of materials – in particular recycled and recyclable materials.
In the bulk market, it is up to consumers and distributors to fulfil these various functions in their own way: they may give them greater or lesser importance, giving priority to some over others. Insofar as manufacturers no longer offer predetermined packaging for their products, consumers and distributors have to take on this task jointly.
Assimilation or accommodation
Our study of how consumers and retailers appropriate these packaging functions used a variety of data: 54 interviews with bulk aisle and store managers and consumers of bulk products, as well as 190 Instagram posts and 428 photos taken in people’s homes and in stores.
The study shows that there are two modes of appropriating packaging functions:
by assimilation – when individuals find ways to imitate typical packaging and its attributes
by accommodation – when they imagine new packaging and new ways of working with it
Bulk packaging can lead to hygiene problems if consumers reuse packaging for a new purpose. GaldricPS/Shutterstock
Some consumers reuse industrial packaging, such as egg cartons and detergent cans, because of their proven practicality. But packaging may also mirror its owners’ identity. Some packaging is cobbled together, while other packaging is carefully chosen with an emphasis on certain materials like wax, a fabric popular in West Africa and used for reusable bags.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Once packaging disappears, so does relevant information
Appropriating the functions of packaging is not always easy. There is a “dark side” to bulk, with possible harmful effects on health or the environment, and social exclusion. Bulk can lead, for example, to hygiene-related problems or misinformation when consumers fail to label their jars correctly, or use packaging for another purpose. For example, using a glass juice bottle to store detergent can be hazardous if a household member is unaware of its contents.
Bulk shopping can also appear exclusive for people with less culinary education. (High-income professionals over the age of 50 make up 70% of all consumers of bulk products.) Once the packaging disappears, so does the relevant information. Some consumers actually do need packaging to recognize, store and know how to cook a product. Without this information, products may end up in the garbage can!
Our study also shows the ambivalence of the so-called “environmental function” of bulk shopping – the initial idea being that bulk should reduce the amount of waste generated by packaging. In fact, this function is not always fulfilled, as many consumers tend to buy a great deal of containers along with other items, such as labels, pens and so on, to customise them.
Some consumers’ priority is not so much to reuse old packaging, but to buy new storage containers, which are often manufactured in faraway lands! The result is the production of massive amounts of waste – the exact opposite of the original purpose of the bulk trade.
Lack of consumer guidance
After a period of strong growth, the bulk sector went through a difficult period during the Covid-19 pandemic, leading to closures for many specialist stores in France, according to a first survey on bulk and on reuse. In supermarkets though, some retailers invested to make their bulk aisles more attractive – though in the absence of any effective guidance, consumers failed to make them their own. Bulk aisles have become just one among a host of other aisles.
Things seem to be improving however, and innovation is on the rise. In France, 58% of the members of the “Bulk and Reuse Network” (réseau Vrac et réemploi) reported an increase in daily traffic between January and May 2023 compared with 2022.
Distributors need to adapt to changing regulations. These stipulate that, by 2030, stores of over 400 m2 will have to devote 20% of their FMCG (Fast-Moving Consumer Goods) sales areas to bulk sales. Moreover, bulk sales made their official entry into French legislation with the law on the fight against waste and the circular economy (loi relative à la lutte contre le gaspillage et à l’économie circulaire) published in the French official gazette on February 11, 2020.
In this context, it is all the more necessary and urgent to support bulk stakeholders, so that they can successfully adopt the practice and develop it further.
Fanny Reniou has received funding from Biocoop as part of a research partnership.
Elisa Robert-Monnot has received funding from Biocoop as part of a research partnership and collaboration.
Sarah Lasri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
In Europe, the fastest-warming continent, the intensification of extreme weather events and changes in precipitation patterns have led to widespread and catastrophic flooding. Last year, storms and flooding affected an estimated 413,000 people, resulting in the loss of at least 335 lives. Material damage is estimated to amount to at least €18 billion, according to the 2024 European State of the Climate report from the Copernicus Climate Change Service and the World Meteorological Organization.
The flooding in October that hit southeastern Spain and the Valencia province in particular took the heaviest toll. Intense and prolonged rainfall and river flooding led to 232 fatalities, and infrastructure damage and economic losses totalled around €16.5 billion. More than seven months later, the local economy has rebounded, thanks in part to public aid packages worth 0.5% of the country’s GDP. However, in early May, the same part of Spain found itself exposed again to the disruptive consequences of climate change when extreme weather hit.
The costs of flooding
The direct costs from the damage to public infrastructure and private assets are only part of the economic losses originating from flooding. The indirect costs might not be immediately visible, but they are certainly not less significant. Business interruptions reduce firms’ revenue and cash flows, straining liquidity and, in the worst cases, threatening their survival. In addition, the increasing likelihood of future flooding may be priced into the valuation of assets and real estate in areas exposed to these types of climate risks. Firms impacted by climate-related hazards might find it difficult to pay back loans or bonds, or to raise finance as physical assets that can be pledged as collateral for bank credit lose value. Ultimately, this can affect the stability of the financial system.
For these reasons, climate change is not just a long-term environmental issue, but a threat to our economy and financial systems now. Economists at the European Commission’s Joint Research Centre (JRC) have been conducting research to better understand how the links between the business sector and the financial system amplify its impact.
A JRC study of flood events between 2007 and 2018 finds that flooding significantly worsened the performance of European firms. Manufacturers exposed to flooding experienced reductions in sales, number of employees and the value of their assets. These impacts occurred in the year following the flooding and tended to be persistent, with no clear signs of recovery seven years after the disaster. Some firms even went out of business. The study also finds that companies in flood-prone areas were better able to weather the shock than businesses exposed to less frequent flooding. This is consistent with the fact that adaptation and protection measures reduce the impacts of flooding.
Threats to smaller firms
Water damage is particularly disruptive for companies that are highly indebted. A second JRC study zooms in on the mechanisms whereby financing choices, and reliance on bank loans in particular, amplify the impact of climate change. This study focuses on loans extended to small and medium-sized enterprises (SMEs) in Italy, Spain and Belgium between 2008 and 2019. It was motivated by the idea that smaller firms, which are more financially fragile than larger ones, might also be more vulnerable to the localised impact of climate-related hazards, not least because of their limited capacity to geographically diversify their operations and access market-based finance. The study shows that flood episodes under analysis strained SMEs’ ability to meet their debt obligations. Flooded firms were more likely to incur delays in servicing their loans and eventually fail to repay them, even two years after the disaster.
In turn, this entails losses for the banks that finance these firms. In general, if banks anticipate the impact of flooding on business operations, they could be expected to divert lending toward safer borrowers or charge a higher interest rate on credit extended to at-risk firms. Indeed, the study finds evidence that prospective flood risk is priced into new loans. In the period under analysis, the “flood risk premium” was especially high for loans to smaller firms and for those granted by local, specialised banks, both of which tend to have geographically concentrated activities that are more exposed to disaster impacts. Loans to borrowers exposed to high flood risk were 12 percent more expensive, all things being equal.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Thus, flooding causes worse financial conditions for businesses and exposes the banking sector to losses on their loan portfolios. The numbers can be staggering: days after the October 2024 flooding, the Spanish Central Bank said that banks’ exposure in the affected areas would total €20 billion, with €13 billion in household loans and €7 billion in business loans (60% to SMEs), impacting 23,000 companies and 472,000 individuals.
With extreme weather events becoming more frequent and severe, the direct and indirect costs of climate change are projected to increase, unevenly affecting households, firms and territories across Europe. Increasing investments in adaptation, eg in flood defence, and closing the climate insurance protection gap – the uninsured portion of economic losses caused by natural hazards – are crucial to increase the resilience of our economies and financial systems and preserve the wellbeing of our societies. The complex structure of investment incentives calls for a multilayered approach, with a mix of private and public funding and risk-sharing mechanisms.
Serena Fatica ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
The proverb “practice makes perfect” highlights the importance of repetition to master a skill. This principle also applies to learning vocabulary and other material. In order to fight our natural tendency to forget information, it is essential to reactivate it in our memory. But, how often?
Research in cognitive psychology provides answers to this question. However, it is also important to understand underlying principles of long-term learning to apply them in a useful and personalised way.
First, test yourself to learn and review content. It is much more effective to do this using question-and-answer cards than just to reread the material. After each attempt to recall pieces of information, review the one that could not be retrieved.
The second principle is to space out reactivations over time. This phenomenon, known as the “spacing effect”, suggests that when reviews of specific content are limited to, for instance, three sessions, it is preferable to space them over relatively longer periods (eg every three days) rather than shorter ones (every day).
Reviewing material at long intervals requires more effort, because it is more difficult to recall information after three days than one. However, it is precisely this effort that reinforces memories and promotes long-term retention.
When it comes to learning, we must therefore be wary of effortlessness: easily remembering a lesson today does not indicate how likely we are to remember it in a month, even though this feeling of easiness can cause us to mistakenly believe that review is unnecessary.
Robert Bjork of the University of California coined the term “desirable difficulty” to describe an optimal level of difficulty between two extremes. The first extreme corresponds to learning that is too easy (and therefore ineffective in the long run), while the other extreme corresponds to learning that is too difficult (and therefore ineffective and discouraging).
Finding the right pace
There is a limit to how much time can pass between information retrievals. After a long delay, such as a year, information will have greatly declined in memory and will be difficult, if not impossible, to recall. This situation may generate negative emotions and force us to start learning from scratch, rendering our previous efforts useless.
There are also paper-and-pencil methods. The simplest method is to follow an “expansive” schedule, which uses increasingly longer intervals between sessions. This technique is used in the “méthode des J” (method of days), which some students may be familiar with. The effectiveness of this method lies in a gradual strengthening of the memory.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
When you first learn something, retention is fragile, and memorised content needs to be reactivated quickly not to be forgotten. Each retrieval strengthens the memory, allowing the next retrieval opportunity to be delayed. Another consequence is that each retrieval is moderately difficult, which places the learner at a “desirable” level of difficulty.
Here is an example of an expansive schedule for a given piece of content: Day 1, Day 2, D5, D15, D44, D145, D415, etc. In this schedule, the interval length triples from one session to the next: 24 hours between Day 1 and Day 2, then three days between D2 and D5, and so on.
Gradually incorporating new knowledge
There is no scientific consensus on the optimal interval schedule. However, carrying out the first retrieval on the day after the initial moment of learning (thus, on D2) seems beneficial, as a night’s sleep allows the brain to restructure and/or reinforce knowledge learned the previous day. The subsequent intervals can be adjusted according to individual constraints.
This method is flexible; if necessary, a session can be postponed a few days before or after the scheduled date without affecting long-term effectiveness. It is the principle of regular retrieval that is key here.
The expansive schedule also has a considerable practical advantage in that it allows new information to be gradually integrated. For instance, new content can be introduced on D3, because no session on the initial content is scheduled for that day. Adding content gradually makes it possible to memorise large amounts of information in a lasting way without spending more time studying it.
The other method is based on the Leitner box system. In this case, the length of interval before the next retrieval depends on the outcome of the attempt to retrieve information from memory. If the answer was easily retrieved, the next retrieval should happen in a week. If the answer was retrieved with difficulty, then three days need to elapse before the next test. If the answer could not be retrieved, the next test should take place the following day. With experience, you will be able to adjust these intervals and develop your own system.
In short, effective and lasting learning not only requires that a certain amount of effort be made to retrieve information from memory, but a regular repetition of this process, at appropriate intervals, to thwart the process of forgetting.
Émilie Gerbier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Luc Rouban, Directeur de recherche CNRS, Sciences Po
La réforme constitutionnelle proposée par le gouvernement a pour objet de rationaliser, une fois de plus, le fonctionnement de la Ve République en se focalisant uniquement sur le Parlement. C’est donc bien la démocratie représentative dans sa fonction législative et délibérative qui est jugée malade.
On en connaît les principaux ressorts : réduction du nombre de parlementaires, interdiction de cumuler plus de trois mandats dans le temps, simplification de la procédure législative pouvant aller jusqu’à restreindre le droit d’amendement en fonction de la taille des groupes politique, introduction d’une dose – pour l’instant indéterminée – de proportionnelle afin d’équilibrer la représentation des diverses sensibilités politiques, notamment celle du FN, dont la candidate (Marine Le Pen) a obtenu plus de 10 millions de voix au second tour de l’élection présidentielle et qui se retrouve avec 7 députés seulement.
Au-delà du flou des propositions dont le contour exact n’est toujours pas déterminé et fait l’objet de négociations musclées avec le président du Sénat, cette réforme s’inscrit dans un renforcement sans précédent de la fonction présidentielle. Le seul contrepoids à cette évolution est de supposer que la réduction du nombre de parlementaires et l’augmentation de leurs moyens techniques devraient permettre un meilleur contrôle des politiques publiques – ce qui reste à prouver. Comme il reste à prouver que le contrôle a posteriori peut remplacer la fonction délibérative a priori.
On assiste donc à un véritable retournement du macronisme. Ce dernier, dans une posture presque gaullienne, s’était construit en 2016 contre les oligarchies partisanes sur la base de réseaux militants pratiquant avec fierté la participation high-tech. Il s’agissait d’inventer une nouvelle façon de faire de la politique, une méthode réticulaire regroupant tous les « Marcheurs » de bonne volonté suffisamment diplômés pour utiliser les réseaux sociaux et s’engageant dans des délibérations permettant de faire remonter les demandes du terrain.
Deux ans plus tard, ce même macronisme produit une série de réformes peu ou pas négociées avec les partenaires sociaux, notamment celle de la SNCF, et une réforme constitutionnelle devant réduire la part de parlementarisme au sein de la Ve République.
Pour comprendre ce qui se joue dans la vie politique française, on peut faire l’hypothèse qu’un nouveau clivage est né, opposant les tenants du pouvoir vertical aux partisans du pouvoir horizontal.
Les deux représentations du pouvoir
L’aspiration à la délibération et à la participation citoyenne a sans doute été l’un des marqueurs de l’élection présidentielle de 2017. Elle s’est exprimée, bien que de manière malheureuse et caricaturale, dans l’organisation des primaires à gauche comme à droite, mais aussi dans les programmes de la plupart des candidats, à la notable exception de celui de François Fillon.
Il est indéniable qu’une transformation du paysage politique français s’est opérée depuis quelques années, sous l’influence notamment d’expériences participatives locales ou de tentatives de relancer la démocratie directe en créant de nouveaux lieux de rencontres où la parole politique puisse se construire et se libérer, comme l’a illustré l’aventure de Nuit debout.
La vague 9 du Baromètre de la confiance politique du Cevipof, dont le terrain a été réalisé en décembre 2017, nous apprend que la confiance dans les institutions politiques, loin de s’améliorer avec l’arrivée au pouvoir d’Emmanuel Macron, s’est au contraire tassée de manière spectaculaire : la confiance dans la plupart des catégories d’élus, y compris les élus locaux, a perdu environ une dizaine de points par rapport aux résultats engrangés une année avant, alors que François Hollande faisait l’objet de toutes les réprobations.
Comme le macronisme s’est (aussi) présenté en tant que mouvement réformateur ne voulant plus s’embarrasser de tergiversations ou de débats, on s’est interrogé sur ce qui faisait aux yeux des enquêtés un « bon » responsable politique au début de l’année 2018. S’agit-il de quelqu’un qui sait s’entourer d’experts compétents, prendre ses décisions sans tenir compte des critiques (indicateurs de pouvoir vertical) ou bien de quelqu’un qui prend l’avis du plus grand nombre avant de décider et qui sait passer des compromis pour éviter les conflits (indicateurs de pouvoir horizontal) ?
Le macronisme : libéralisme culturel, tolérance sociétale et pratique verticale du pouvoir
Ces caractéristiques ont été présentées sous la forme de deux questions permettant aux enquêtés de dire ce qu’ils plaçaient en première et seconde position. Le regroupement des réponses, en tenant compte de la priorité donnée à chaque item, montre que les enquêtés se répartissent en deux groupes égaux puisque 50 % choisissent le pouvoir vertical, 47 % le pouvoir horizontal et 3 % ne savent pas.
L’analyse montre, tout d’abord, que les partisans du pouvoir vertical se rencontrent surtout chez les électeurs d’Emmanuel Macron (64 %) et de François Fillon (68 %) au premier tour de l’élection présidentielle. En revanche, ceux de Benoît Hamon sont bien plus partagés (54 %), alors que ceux de Jean‑Luc Mélenchon le rejettent (38 %), comme ceux de Marine Le Pen (34 %). Dans l’esprit de ses électeurs, et non pas de ses militants, le macronisme n’est donc pas assimilé à un pouvoir participatif horizontal mais bien à une volonté d’appliquer de manière assez unilatérale le programme de réformes.
Le second résultat contre-intuitif de l’enquête est de montrer que si les catégories supérieures et diplômées se caractérisent par un haut niveau de libéralisme culturel et de tolérance sociétale, elles se distinguent également par leur défense du pouvoir vertical. Comme quoi le libéralisme culturel ne préjuge pas du type de pouvoir ou de démocratie que les enquêtés défendent.
C’est ainsi que 38 % de ceux ayant un niveau CAP-BEP défendent la vision verticale contre 47 % de ceux ayant le niveau du bac et 58 % ayant au moins une licence. Le niveau de libéralisme culturel (tel qu’on peut le mesurer sur la base de questions portant sur le rétablissement de la peine de mort, le nombre jugé excessif ou non d’immigrés et la suppression de la loi autorisant le mariage homosexuel) et la représentation du « bon élu » sont donc relativement déconnectés.
On est ici au cœur de l’ambivalence du managérialisme qui renforce le pouvoir hiérarchique en le couvrant d’un masque de libre communication et de culture soixante-huitarde. Cela montre aussi que les électeurs (et non pas les militants) des mouvements « populistes » qui sont, en l’espèce, défenseurs du pouvoir horizontal, ne sont pas nécessairement à la recherche d’un modèle autoritaire, et ne sont pas nécessairement caractérisés par une « personnalité autoritaire ». L’autoritarisme a peut-être pris d’autres chemins aujourd’hui.
Pouvoir vertical et libéralisme économique sont associés
En revanche, la défense du pouvoir vertical s’intensifie avec le degré de libéralisme économique. On a créé un indice sur la base de trois questions (il faut réduire le nombre de fonctionnaires, faire confiance aux entreprises pour sortir de la crise économique, ne pas prendre aux riches pour donner aux pauvres afin d’assurer la justice sociale) et allant donc de 0 à 3 en fonction du nombre de réponses positives. On voit alors que les enquêtés au niveau 0 du libéralisme économique choisissent le pouvoir vertical à concurrence de 32 % contre 42 % de ceux qui se situent au niveau 1 puis 54 % de ceux qui sont au niveau 2 et 67 % de ceux de niveau 3. La proportion de ceux qui préfèrent le pouvoir horizontal varie de manière inverse.
On peut mesurer ici le fait que la dimension « managériale » du macronisme ne signifie nullement une perspective de pouvoir horizontal ou participatif, comme pourraient le laisser croire les métaphores entrepreneuriales utilisées lors de la campagne. De fait, 22 % des électeurs d’Emmanuel Macron se situent au niveau 3 de l’indice de libéralisme économique contre il est vrai 62 % de ceux de François Fillon mais 15 % de ceux de Marine Le Pen, 4 % de ceux de Jean‑Luc Mélenchon et 3 % de ceux de Benoît Hamon.
Cette association entre les représentations de la démocratie et le niveau de libéralisme économique renvoie à l’appartenance sociale des enquêtés. Les deux représentations de la démocratie se retrouvent dans la distribution en grandes classes sociales, construites sur la base des occupations professionnelles selon la grille de lecture retenue pour les travaux précédents.
Le sens de la révision constitutionnelle
Le clivage entre pouvoir vertical et pouvoir horizontal détermine le niveau de la confiance placée dans les institutions. Les enquêtés préférant le pouvoir horizontal ont moins confiance dans les institutions politiques, nationales ou locales, que ceux qui préfèrent le pouvoir vertical.
Tous derrière et lui devant : le Président Macron, lors des cérémonies du 14 juillet 2017.
De la même façon, la critique des élus est plus forte chez les partisans du pouvoir horizontal : 74 % d’entre eux contre 52 % des tenants du pouvoir vertical estiment que la plupart des responsables politiques ne se soucient que des riches et des puissants et 63 % des premiers contre 37 % des seconds pensent que c’est le peuple et non les responsables politiques qui devrait prendre les décisions les plus importantes.
La révision constitutionnelle actuelle s’appuie donc sur la dénonciation assez générale des élus (ils sont trop nombreux, plutôt corrompus et ne travaillent pas beaucoup) développée chez les partisans du pouvoir horizontal pour renforcer le pouvoir vertical associé au macronisme.
Au-delà de son élitisme, confirmé par le profil des nouveaux députés de la République en Marche, le macronisme se présente comme un moment politique où se joue une confrontation non seulement entre deux visions de la démocratie mais aussi entre deux anthropologies du pouvoir. La réforme constitutionnelle en cours doit venir séparer encore un peu plus le personnel politique national et le personnel politique local.
Une attente de proximité
L’agrandissement mécanique des circonscriptions lié à la réduction du nombre d’élus va rendre plus difficile le contact avec les électeurs. Or c’est bien la proximité physique et sociale des électeurs et des élus qui reste au sein de la relation de confiance politique, qui est elle-même au cœur de la démocratie représentative. Et c’est bien cette attente de proximité qui nourrit la vision d’un pouvoir horizontal participatif.
La révision constitutionnelle, telle qu’elle est actuellement proposée, entend dissocier le national du local et rendre le national encore plus lointain et abstrait en laissant le local se confronter aux difficultés quotidiennes. Comment peut-on penser que cette réforme puisse améliorer la confiance politique dans les institutions ?
De plus, l’instauration d’une dose de proportionnelle va contribuer à relancer les manœuvres au sein des partis politiques, comme on le voit déjà lors des élections régionales. La plupart des réformes nées d’une ingénierie institutionnelle hasardeuse comme le quinquennat ou les primaires n’ont fait qu’aggraver les problèmes.
La révision constitutionnelle actuelle, tout comme les conflits sociaux qui secouent le secteur public, partagent des structures communes dans le sens où l’on voit s’affronter dans chaque cas une revendication de terrain – soucieuse de la réalité vécue par les élus et les agents – à une norme juridique ou financière devant décliner un modèle de pouvoir désincarné et impalpable.
À travers l’opposition entre pouvoir vertical et pouvoir horizontal se joue donc une opposition entre deux modes d’interaction politique, l’un virtuel et numérique, l’autre physique et humain.
Les datavisualisations de cet article ont été réalisées par Diane Frances.
Luc Rouban ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Guillaume Cabanac, Professor of Computer Science, Institut de Recherche en Informatique de Toulouse
Guillaume Cabanac a été distingué par la revue _Nature_ comme l’un des dix scientifiques de l’année 2021.DCCE, Université de Toulouse, Fourni par l’auteur
Guillaume Cabanac est professeur d’informatique à l’Université de Toulouse et membre de l’Institut universitaire de France. Avec son « collège invisible », constitué d’une centaine de personnes, des scientifiques mais aussi de nombreux amateurs, il pourchasse les fraudes scientifiques. Son travail de dépollution lui a valu d’être distingué par la revue Nature comme un des dix scientifiques de l’année 2021. Benoît Tonson, chef de rubrique Science à The Conversation France, l’a rencontré.
The Conversation : Comment avez-vous démarré votre travail d’enquêteur scientifique ?
Guillaume Cabanac : La littérature scientifique est mon objet de recherche, car c’est un corpus passionnant à étudier, riche en données de différentes natures : du texte, des liens de citations, des dates, des affiliations, des personnes… Par ailleurs, ce corpus est évolutif puisque, tous les jours, 15 000 nouveaux articles scientifiques sont publiés de par le monde.
Initialement, ce n’était pas la fraude qui m’intéressait, mais plutôt l’erreur en science. J’ai entrepris de traquer les méconduites en sciences au contact de Cyril Labbé, professeur d’informatique à l’Université de Grenoble-Alpes. J’avais lu un de ses articles qui avait fait grand bruit. Dans cet article, il racontait qu’il avait créé un faux profil sur Google Scholar (le moteur de recherche spécialisé de Google qui permet de rechercher des articles scientifiques). Un certain Ike Antkare (comprendre “I can’t care”, ou « Je ne peux pas m’en soucier » en français). Avec ce profil, il avait créé de faux articles à l’aide d’un logiciel SCIgen de génération de texte, un ancêtre des IA génératives si l’on veut. C’est un programme qui se fonde sur une grammaire probabiliste hors contexte. Cela signifie qu’il perd la mémoire d’une phrase à l’autre. Il va écrire des phrases, qui prises indépendamment ont du sens, mais qui, collectivement, produiront un texte qui n’aura aucune logique. Par exemple, la première phrase serait « Aujourd’hui, il fait beau », la deuxième « Les diamants sont des pierres précieuses » et la troisième « Mon chien s’appelle Médor ».
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
Cyril Labbé a donc utilisé ce logiciel pour générer des articles qu’il a réussi à faire indexer par Google Scholar. Chaque faux article citait les autres. Or, le calcul du nombre de citations d’un auteur dans d’autres articles est un indicateur bibliométrique très populaire. Cela montre que d’autres scientifiques se sont appuyés sur ces travaux. Après avoir publié un nombre suffisant d’articles bidon, Ike Antkare est devenu l’un des scientifiques les plus cités au monde, dépassant même Einstein ! J’ai rencontré Cyril dans un congrès en 2015, et c’est comme ça que notre aventure a commencé.
Tout s’est accéléré pendant le Covid-19 : il me disait qu’il trouvait chez de très grands éditeurs scientifiques comme l’Institute of Electrical and Electronics Engineers (IEEE) ou Springer Nature des articles bidon générés par les mêmes méthodes que celles employées par Ike Antkare. À cette époque, il avait un détecteur qui travaillait article par article. J’ai proposé d’automatiser ce procédé pour pouvoir analyser la littérature scientifique dans son intégralité, c’est-à-dire 130 millions d’articles scientifiques publiés à ce jour. Le logiciel prototype que j’ai développé montrait qu’on peut interroger les centaines de millions d’articles à la recherche de ces articles bidon en quelques heures seulement. On en a trouvé quelques centaines en 2020. On s’est mis en chasse. D’abord, de ces articles contenant du texte qui n’avait aucun sens, puis on a continué à identifier d’autres types de fraudes. Nous avons créé d’autres détecteurs, intégrés au sein du Problematic Paper Screener et on dénombre aujourd’hui des dizaines de milliers d’articles frauduleux !
Vous avez découvert un type de fraude qui a fait particulièrement réagir : les expressions torturées…
G. C. : En menant nos recherches, on a découvert que des auteurs commettaient des plagiats un peu particuliers. Ce n’étaient pas des textes copiés/collés, car les maisons d’édition ont des détecteurs de plagiats directs. Ça ne passerait pas et l’astuce, si l’on peut dire, consiste à faire du copier/paraphraser/coller. Paraphraser revient à remplacer un mot dans le texte d’origine par un synonyme. Il existe des sites en ligne qui peuvent le faire très rapidement.
Il y a un hic : ces synonymes viennent plutôt de la littérature et ne font aucun sens dans un contexte scientifique. Prenons le mot « cancer » par exemple : le logiciel paraphraseur le remplacera par un synonyme tel que « péril ». En effet, lorsque l’on parle de cancer de la société, on peut aussi utiliser le terme de péril. En revanche, écrire « péril de la poitrine » au lieu de « cancer du sein » dans un article biomédical est tout simplement inacceptable.
De façon choquante et inattendue, nous avons trouvé des milliers d’expressions torturées dans les plus grosses maisons d’édition : Elsevier, Springer, Wiley, IEEE… Cela a fait scandale, car la communauté scientifique pensait qu’il y avait, d’un côté, des « prédateurs », qui tiennent des revues publiant n’importe quoi contre rémunération, et, de l’autre, les maisons d’édition prestigieuses, qui assurent un processus éditorial sérieux avec relecture par les pairs.
Et je ne parle pas d’un cas isolé : dans la revue scientifique Microprocessors and Microsystems dans laquelle nous avons découvert les premières expressions torturées, plus de 400 articles étaient concernés, avec des remplacements du type « intelligence artificielle » qui devient « conscience contrefaite » ou « rapport signal sur bruit » torturé en « rapport signal sur clameur ».
Ce que nous critiquons en creux, c’est la massification du nombre de revues scientifiques dont le nombre a doublé en vingt ans et pour lesquelles la main d’œuvre nécessaire et gratuite s’est raréfiée. En effet, ce travail d’évaluation par les pairs impliquant deux ou trois experts mondiaux du sujet par soumission d’article à évaluer n’est pas rémunéré.
Les maisons d’édition nous assurent qu’un processus rigoureux d’évaluation par les pairs a été mis en place, comme attendu. Personnellement je me demande si l’évaluateur n’était pas endormi lorsqu’il a recommandé la publication d’une article truffé d’expressions torturées. Ce n’est pas sérieux.
Cela dit, je n’ai aucun moyen d’estimer la qualité de l’évaluation, ni même si elle a été réalisée : la plupart des maisons d’édition ne rendent pas publics les rapports d’évaluation.
Vous avez donc démarré ce travail à deux, mais aujourd’hui vous coordonnez une vraie communauté, comment s’est-elle mise en place ?
G. C. : Sur les expressions torturées, on a d’abord été rejoint par Alexander Magazinov, un mathématicien et informaticien russe qui se distrait en devenant détective scientifique. En parallèle, je lisais tous les signalements postés par la communauté scientifique sur PubPeer (un site web qui permet à quiconque de formuler des commentaires à propos d’articles scientifiques publiés, pour notamment signaler des soupçons de manquements à l’intégrité scientifique) et j’y ai repéré des personnes très actives, signalant des fraudes. Je les ai contactées et on a commencé à se regrouper, mobilisant une plateforme en ligne que j’ai nommée « le collège invisible ». C’était un clin d’œil à un concept de sociologie des sciences, pour rappeler que des scientifiques de diverses disciplines peuvent partager des centres d’intérêt tout en étant affiliés à des institutions différentes, réparties de par le monde. Mon initiative a fédéré au sujet de la fraude en sciences. Le groupe a grossi progressivement et inclut désormais 120 personnes qui échangent, partagent et coordonnent leurs actions quotidiennement. C’est une communauté internationale constituée de scientifiques, de professionnels de l’édition et d’amateurs de tous types de milieux.
Vous avez détecté de nombreuses fraudes mais, finalement, pourquoi les chercheurs trichent-ils ?
G. C. : Il est bon ici de rappeler que le problème est systémique, et pas individuel. En effet, les individus sont en prise avec des systèmes qui les régissent et qui imposent par le haut une performance difficile voire impossible à atteindre. Prenons l’exemple d’un chirurgien en Chine qui travaille dans un hôpital. On va lui demander d’opérer, d’enseigner mais aussi de faire des découvertes, pas de la recherche mais des découvertes, qui devront être publiées dans certaines revues prestigieuses. Ils ont un quota d’articles à publier.
Quand cela devient trop dur de mener toutes ces activités en parallèle, on peut être tentés de se tourner vers ce que l’on appelle les papers mills (« usine ou moulins à articles »). Ce sont des entreprises qui proposent, moyennant finance, de produire des articles plus ou moins bidon sur lesquels vous pouvez mettre votre nom et les publier.
Il y a beaucoup d’autres exemples. En Italie, devenir éditeur invité d’un numéro spécial d’une revue est apprécié dans les évaluations individuelles de chercheurs. L’offre en face vient de MDPI, une maison d’édition identifiée dans la « zone grise » de l’édition. Elle permet à des chercheurs de créer un numéro spécial et d’accepter des articles à leur discrétion. Vu les critiques émises sur PubPeer et le nombre délirant de numéros spéciaux par an, qui peut atteindre les 3 000, on est en droit de questionner ce modèle éditorial, dans les pas du Cirad, de l’Inrae et de l’Inria.
Cela satisfait tout le monde : la maison d’édition touche quelques milliers d’euros par article, l’éditeur invité valide son objectif… Cependant, la science est affaiblie alors qu’on se doit de la soutenir et de la défendre. Publier des articles fragiles pose de réels problèmes : le mur des connaissances est en péril lorsque des briques de connaissances ne sont pas robustes.
Avec vos travaux, certains articles sont rétractés, mais qu’en est-il des articles qui citent des travaux dépubliés ?
G. C. : Je me suis posé la question en 2023 : quels sont les articles scientifiques qui possèdent dans leur bibliographie des articles rétractés ? Normalement, on devrait observer un effet domino, des rétractations en chaîne : les articles s’appuyant sur des connaissances remises en question devraient être également réévalués. Pour explorer cette problématique, j’ai rajouté un détecteur dans le Problematic Paper Screener afin de traquer les colosses aux pieds d’argile : les articles de bonne facture qui citent dans leur bibliographie un ou plusieurs articles désormais rétractés.
Parmi les 130 millions d’articles scientifiques parus dans le monde, il y en a plus de 800 000 qui citent au moins un article rétracté. Certains articles citent même jusqu’à 50 ou 60 publications rétractées ! Il convient de vérifier de nouveau la fiabilité de ces articles et de les rétracter si nécessaire. Ceci est d’autant plus crucial pour les publications concernant des sujets peu étudiés, tels que les maladies rares.
Force est de constater que les maisons d’éditions, responsables de la diffusion des articles acceptés, ne monitorent pas leur catalogue et ne mandatent pas ces réévaluations auprès de comités d’experts. Il serait pourtant techniquement possible de traquer toute rétractation de référence citée dans les articles publiés par une maison d’édition – ce que fait le Problematic Paper Screener, toutes maisons d’édition scientifique confondues.
G. C. : Je parlais tout à l’heure des paper mills. Une des stratégies de ces entreprises est de vendre des articles bidon qu’ils fabriquent eux-mêmes, puis ils proposent à leurs clients de se citer les uns et les autres pour augmenter artificiellement l’impact de leurs publications.
L’idée est simple : si vous avez 50 clients, vous dites à chacun de citer un des autres, cela peut aller très vite et plus il y aura de clients, plus il sera difficile de traquer cette entente illicite, nommée « cartel de citations » dans la littérature. Notre travail de mise en lumière des articles bidon permet donc également d’identifier les clients potentiels des paper mills.
Comment voyez-vous la situation évoluer ? Votre travail permet-il une diminution du nombre de publications scientifiques problématiques ?
G. C. : Ce n’est pas évident, tout dépend de la fraude dont on parle. Par exemple, aujourd’hui, il ne faudrait pas être très malin pour utiliser la technique des expressions torturées, car nos détecteurs les repèrent aisément. Les gros éditeurs scientifiques (soutenant notamment le STM Integrity Hub les ont adoptés pour filtrer le flot des manuscrits soumis par les chercheurs. Le plagiat par synonymes diminue drastiquement.
Actuellement, l’IA générative est le problème majeur, car les textes générés par machine sont impossibles à différencier automatiquement des textes générés par les humains, sans avoir recours à des experts. Les utilisateurs d’IA générative trouvent des astuces pour déjouer les logiciels de détection d’IA générative. On ne peut donc pas quantifier cette fraude. Faute d’étude rigoureuse de ce phénomène, on ne peut parler que de « sentiment ».
Les scientifiques que je côtoie me disent suspecter des passages générés par IA dans les manuscrits qu’ils expertisent. Les ruptures de style ou les exposés trop superficiels sont révélateurs. Par ailleurs, quand ils reçoivent des rapports d’évaluation de leurs pairs (en grande majorité anonymes) à propos de leurs propres travaux, il peut arriver qu’ils aient le sentiment d’être floués : ces critiques ont-elles été générées par une machine ou rédigées par un expert ? Ce questionnement qui sème le trouble et la confiance est, selon moi, à la limite de rompre.
En parlant de confiance, on peut déplorer une sorte de méfiance généralisée vis-à-vis de la science, n’avez-vous pas peur que vos travaux alimentent celle-ci ?
G. C. : L’alternative serait de détecter ces fraudes « en interne » et de ne pas en parler, d’en faire un secret, de le garder pour nous, entre chercheurs. Mais c’est une très mauvaise idée puisqu’au contraire, quand on est scientifique, on se doit d’être transparent, de publier ce qu’on trouve et d’informer le public. Il ne faut pas se voiler la face, les chercheur forment un groupe social comme les autres : comme partout, il y a des tricheurs et des arnaqueurs.
Selon moi, tous les acteurs impliqués se doivent de faire la lumière sur ces fraudes : maisons d’édition, institutions, financeurs et chercheurs. Le but est d’en parler le plus possible pour sensibiliser nos collègues et les étudiants que l’on forme.
Guillaume Cabanac a reçu des financements du Conseil Européen de la Recherche (ERC), de l’Institut Universitaire de France (IUF) et de la Fondation Pierre Fabre. Il a conçu et administre le Problematic Paper Screener qui exploite des données fournies par Digital Science et PubPeer à titre gracieux.
Source: – By Jean-Pierre Dalmont, Professeur des Universités, spécialiste des guides d’ondes acoustiques et de la physique des instruments de musique, Le Mans Université
Pourquoi la musique sonne-t-elle « juste » ou « faux » et pourquoi seuls quelques élus après un travail forcené sont-ils capables de jouer ensemble et juste ? La réponse à cette question relève autant des mathématiques et de la physique que de la physiologie.
S’il arrive souvent qu’on perçoive dans diverses circonstances que certaines personnes, même seules, chantent faux, c’est parce qu’elles s’éloignent de façon très significative de l’échelle musicale attendue. Pour fixer les idées, si dans une mélodie, la note attendue est un La3 (le la au milieu du clavier) sa fréquence devrait être de l’ordre de 440 Hz, c’est-à-dire 440 oscillations par seconde.
Si elle dévie de plus de 10 Hz, elle sera suffisamment éloignée de l’attendu pour choquer les auditeurs qui connaissent la mélodie. Les échelles musicales ont une grande part d’arbitraire et leur perception relève donc de l’acquis.
Quelqu’un qui n’a aucune culture musicale ne sera en aucun cas choqué par ces déviations. D’ailleurs, les échelles musicales qui ne relèvent pas de notre culture telles que les échelles orientales ou les échelles en quart de tons nous paraissent fausses, car elles ne nous sont pas familières.
La justesse est donc une notion toute relative, et c’est lorsque l’on fait de la musique à plusieurs que celle-ci prend vraiment son sens. En effet, deux musiciens qui jouent ensemble doivent être « d’accord », c’est-à-dire que les notes qu’ils vont jouer ensemble doivent s’accorder. Et là, notre oreille est intraitable : si deux musiciens ne sont pas accordés, le résultat est extrêmement déplaisant, ça sonne faux. On sort donc du domaine de l’acquis pour rentrer dans celui de la physique.
Tous les quinze jours, de grands noms, de nouvelles voix, des sujets inédits pour décrypter l’actualité scientifique et mieux comprendre le monde. Abonnez-vous gratuitement dès aujourd’hui !
La musique, une affaire de physiciens ?
À quel phénomène cela tient-il ? La réponse à cette question est connue finalement depuis assez peu de temps au regard de l’histoire de la musique puisque c’est seulement au milieu du XIXe siècle qu’Hermann von Helmholtz donne une explication scientifique de la notion de dissonance, qu’il nomme « Rauhigkeit » (« rugosité »).
Il associe la notion de dissonance à la notion de battements. En effet, les mathématiques nous disent que, lorsqu’on superpose deux sons purs de même amplitude et de fréquences voisines, il en résulte un son unique dont la fréquence est leur moyenne et dont l’amplitude est modulée périodiquement par une fréquence égale à leur différence. Par exemple, si on superpose deux sons purs de même amplitude et de fréquences 439 Hz et 441 Hz, on obtient un son de 440 Hz qui s’éteint deux fois par seconde (2 Hz). C’est une sensation assez désagréable, car notre cerveau n’apprécie pas les événements répétés rapidement qui mobilisent trop son attention.
Un son pur de 439 Hz, puis un de 441 Hz et enfin le mélange des deux.
Hermann von Helmholtz a estimé subjectivement que la sensation était la plus désagréable pour des battements autour de 30 Hz. Quand cette fréquence augmente, la sensation de battement disparaît et la sensation désagréable avec.
Les choses se compliquent lorsqu’on superpose deux sons complexes. Un son complexe est un son périodique dont on sait, depuis Joseph Fourier, qu’il peut être décomposé en une somme de sons purs – les harmoniques –, dont les fréquences sont multiples de sa fréquence, dite fréquence fondamentale. Lorsqu’on superpose deux sons complexes, alors tous les harmoniques du premier son sont susceptibles de battre avec un voire plusieurs harmoniques du second. La probabilité pour que les deux sons sonnent bien ensemble est alors quasi nulle.
Les rares situations sans battement correspondent aux intervalles consonants : l’octave qui correspond à un rapport de fréquence égal à 2 exactement, la quinte qui correspond à un rapport 3/2, la quarte 4/3, la tierce majeure 5/4 et, à la limite, la tierce mineure 6/5.
Ces intervalles, si la note fondamentale n’est pas trop basse, ne créent pas de battements. Cela s’explique car de la superposition de deux sons d’un intervalle juste résulte un seul son, dont la fréquence fondamentale est la différence entre les deux. Ainsi un La3 à 440 Hz et un La4 à 880 Hz (octave) donnent un La3 de fréquence 440 Hz, mais avec un timbre différent. Un La3 à 440 Hz et un Mi4 à 660 Hz (quinte) donnent un La2 à 220 Hz. De même, un La3 à 440 Hz et un do#4 à 550 Hz (tierce majeure) donnent un La1 à 110 Hz.
Dans tous les cas, l’oreille ne perçoit pas de battements car ceux-ci sont trop rapides. Par contre, si on considère un La2 une octave plus bas à 220 Hz et un do#3 à 275 Hz (tierce majeure), on obtient un La1 à 55 Hz qui commence à être perçu comme rugueux. À cette hauteur, la tierce est presque dissonante. C’est sans doute pour cela qu’au Moyen Âge, la tierce majeure était rejetée, car considérée comme dissonante, sans parler de la tierce mineure. Ces deux intervalles sont d’ailleurs toujours considérés par les spécialistes comme des consonances imparfaites, par opposition à l’octave et la quinte qui sont des consonances parfaites.
Ces intervalles sont à la base de la musique occidentale puisqu’ils permettent de construire la gamme naturelle Ut (do) ré mi fa sol la, qui va permettre, en combinant différentes notes non conjointes, de définir les bases de l’harmonie musicale. Au fil du temps, les compositeurs et les auditeurs seront de plus en plus accommodants vis-à-vis de la justesse et, actuellement, sur un clavier numérique, seules les octaves sont rigoureusement justes.
Finalement, de nos jours, chanter juste, c’est chanter pas trop faux !
Jean-Pierre Dalmont ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
La fin de l’année universitaire est un moment propice à la réflexion sur les usages de l’intelligence artificielle (IA) dans les travaux académiques. C’est le moment où les enseignants-chercheurs évaluent les écrits des étudiants. Les réclamations qui s’ensuivent nous donnent l’occasion de discuter avec eux de leur rapport à la lecture, aux sources d’information et à la connaissance.
Si peu d’étudiants savent que ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour leur scolarité, il convient de décider comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants.
Je lis les écrits d’étudiants en Master depuis plus de vingt ans. Cette année, j’ai constaté une augmentation massive du nombre de travaux qui comportaient des passages entiers stylistiquement proches des textes produits par l’IA générative. J’ai passé de nombreuses heures à scruter les rapports du logiciel Compilatio (un outil conçu au départ pour lutter contre le plagiat, progressivement adapté à l’IA), à vérifier l’authenticité des références bibliographiques, à faire des recherches en ligne et parfois même dans des ouvrages imprimés, afin de savoir si mes étudiants avaient rédigé eux-mêmes leurs textes.
En effet, à l’heure actuelle, aucun outil ne permet de déterminer avec certitude si un texte a été produit par l’IA générative. Parmi les cas suspects, j’ai décelé des citations à des auteurs et des références bibliographiques introuvables sur le Net ou à la bibliothèque universitaire. Ces occurrences connues sous le nom d’« hallucinations » justifiaient pleinement une demande d’explications à mes étudiants. Leurs réponses m’ont laissée perplexe.
Si les étudiants ont majoritairement reconnu avoir utilisé l’IA, ils ne voyaient pas où était le problème. Tous m’ont envoyé les articles qu’ils avaient « lu » et « traité » dans le cadre de leur travail. Ils ont justifié l’utilisation de l’IA générative comme un moyen de « reformuler [leurs] propos », « structurer [leurs] idées », « améliorer la syntaxe », « illustrer les idées de chaque auteur », « gagner du temps plutôt que de retourner dans chaque article », ou encore « faire la bibliographie à [leur] place ». Tout cela leur paraissait tout à fait normal et acceptable.
Plus grave pour moi, dont le métier est d’éduquer à l’évaluation de l’information, quand je leur ai demandé pourquoi le nom d’un auteur ou le titre d’une revue cité dans leur texte étaient différents de ceux qui figuraient dans la première page de l’article qu’ils m’avaient transmis, il y a eu un haussement d’épaules.
D’où venait leur perception que la citation des sources était un détail dans la rédaction d’un écrit sur un sujet de recherche ?
Le rôle des sources dans les écrits scientifiques… et dans les textes générés par l’IA
L’attitude des étudiants, faite d’un mélange de surprise (certes possiblement feinte) et de frustration vient, à mon avis, du bouleversement apporté par l’IA générative au statut des sources d’information dans les textes.
Dans un texte scientifique, le rôle des sources d’information est fondamental. La source correspond à l’ensemble des paramètres qui renseignent le lecteur sur l’origine de l’information, tels que l’auteur, la date de publication, ou le média. Elle donne des indications sur l’affiliation institutionnelle et disciplinaire d’un auteur, le processus éditorial préalable à la publication d’une information, et d’autres indices qui permettent d’interpréter les propos et d’en juger la fiabilité.
Or, si les chercheurs s’appuient constamment sur ces critères pour évaluer la crédibilité d’un texte, c’est l’objet d’un processus d’apprentissage pour les étudiants. Dans un article précurseur sur le sujet, Wineburg a comparé le raisonnement d’historiens et d’élèves de terminale sur un ensemble de documents à propos d’un évènement historique controversé. La source était le premier critère utilisé par les historiens pour évaluer la pertinence et la fiabilité d’un document, alors qu’il n’apparaissait qu’en troisième position pour les lycéens, qui se focalisaient davantage sur le contenu et la lisibilité des textes. Ces résultats ont été répliqués dans de nombreuses études.
L’IA peut contredire ses sources : elle n’est pas conçue pour y être fidèle
Dans les textes générés par l’IA, le rôle des sources est sensiblement différent.
À la base de cette technologie, il y a bien un corpus de sources gigantesque qui permet à des modèles statistiques du langage d’apprendre et de générer des textes cohérents et vraisemblablement similaires aux textes produits par les humains.
Mais les sources ne servent que d’input durant l’entraînement et ne sont pas utilisées comme critère explicite de fiabilité lors de la génération d’une réponse. Le modèle prédit la suite la plus probable d’un texte, mot à mot, selon les régularités apprises, sans évaluer la véracité de l’information par rapport à des documents authentifiés.
Ainsi, l’on peut se retrouver avec un texte généré par l’IA parfaitement cohérent et néanmoins erroné. Même lorsque l’on demande à ChatGPT de résumer un article scientifique, il est nécessaire de vérifier que les informations correspondent à celles de l’article original. Sans une vérification scrupuleuse des textes produits par l’IA, il y a un risque de reproduction d’informations imprécises ou incorrectes, et d’attribution de certaines idées à de faux auteurs, ce qui constitue une fraude passible de sanctions.
Ne pas citer ses sources (correctement) est passible de sanctions
Les étudiants n’ont pas forcément l’impression de tricher lorsqu’ils utilisent l’IA comme une aide à la rédaction, car les textes générés par l’IA ne constituent pas un plagiat au sens propre. En France, le ministère de l’Enseignement supérieur et de la Recherche s’est prononcé sur ce sujet dans une réponse à la question d’un sénateur en 2023 :
« Les œuvres créées par des IA ne sont pas protégées en elles-mêmes sauf si elles reproduisent des œuvres de l’esprit au sens du code de la propriété intellectuelle[…][donc] recopier un texte produit par ChatGPT ne peut être sanctionné au regard des dispositions des articles L. 122-4 et L. 335-2 du code de la propriété intellectuelle. »
« L’indication des sources est une obligation juridique, académique et éthique. D’un point de vue académique, notamment, elle doit permettre d’apprécier la valeur pédagogique du travail original réalisé par son auteur. Ne pas mentionner les sources pour faire sien un travail réalisé par autrui ou par une IA est, en conséquence, constitutif d’une fraude susceptible d’être poursuivie et sanctionnée, pour les usagers de l’enseignement supérieur, en application des dispositions des articles R. 811-1 et suivants du code de l’éducation. »
Autrement dit, le fait d’utiliser un texte généré par l’IA ne dispense pas l’étudiant de citer correctement ses sources. Les sanctions peuvent aller jusqu’à l’exclusion de l’université et le retrait du diplôme, et ce sans délai de prescription.
En somme, ne pas citer ses sources dans les règles de l’art est une faute qui peut avoir des conséquences graves pour la scolarité d’un étudiant, sans parler du fait que la simple copie d’un texte produit par l’IA ne garantit pas l’apprentissage. Car celui-ci requiert un traitement actif de l’information de la part de l’apprenant.
Chacun doit donc s’assurer que les sources utilisées dans son travail sont correctement citées, selon les normes bibliographiques et scientifiques en vigueur. Hélas, ces normes sont enseignées parfois trop brièvement ou superficiellement – quand elles le sont – dans les cours de méthodologie de la recherche à l’université.
Une première piste : améliorer la détection des textes produits par l’IA
Une première piste serait d’améliorer la détection des textes produits par l’IA.
Les logiciels de détection automatique deviennent de plus en plus performants dans cette tâche, mais les modèles d’IA générative s’améliorent également dans l’application de stratégies de paraphrase et « d’humanisation » des textes, qui rendent plus difficile la détection automatique. Par ailleurs, certains chercheurs s’évertuent à construire des modèles visant à empêcher directement la détection automatique des textes générés par l’IA.
C’est donc un rapport de forces extrême et inégal qui est en train de se jouer et risque de se reproduire en permanence, rendant difficile la mise à disposition des enseignants d’outils performants de détection automatique.
Pour améliorer la détection des textes générés par l’IA, une étude non encore publiée, déposée dans la plateforme ArXiv, propose de faire appel à des experts de l’usage de l’IA. Les chercheurs ont en effet observé que ces experts sont capables d’utiliser plusieurs critères d’évaluation de manière flexible : « vocabulaire de l’IA », présence de structures syntaxiques et documentaires stéréotypées, absence de fautes orthographiques et grammaticales, entre autres. Ces résultats nécessitent évidemment d’être confirmés par une publication et répliqués, mais ils suggèrent qu’il peut être utile de former les enseignants à l’application de ces critères.
Former – toujours former ! – à l’évaluation des sources d’information
Au-delà de l’aspect purement « détectionnel » des textes, ce sont des connaissances sur la structure et la rhétorique des textes générés par l’IA qu’il convient d’expliciter dans le but de les intégrer dans la pédagogie universitaire.
L’IA peut aider les enseignants et les étudiants dans de nombreuses tâches, mais elle ne peut pas se substituer complètement au jugement humain. L’usage éthique de l’IA ne se résume pas à interdire certains procédés ni à promouvoir les compétences techniques des étudiants et des enseignants (par exemple, « Comment faire un bon prompt ? »). Elle va au-delà des aspects normatifs et techniques, et inclut les questions d’épistémologie, de connaissances documentaires, et de métacognition indispensables à toute démarche maîtrisée de recherche d’informations.
Je suis sûre que l’on gagnerait à avoir des discussions plus ouvertes avec les étudiants au sujet des usages de l’IA dans les travaux universitaires, ce que cela signifie pour eux et pour nous, enseignants et chercheurs, et comment l’on pourrait tirer parti de cette technologie incroyablement puissante sans renoncer à nos principes éthiques ni à nos ambitions de formation intellectuelle des étudiants. Ce serait un débat au nom du savoir, de l’apprentissage et de la vérité, un débat dont notre université et notre démocratie ont tant besoin.
Mônica Macedo-Rouet ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: – By Jodie L. Rummer, Professor of Marine Biology, James Cook University
Lorsqu’on retourne certains requins, ils se figent totalement.Rachel Moore
Vous avez peut-être déjà vu cette scène dans votre documentaire animalier préféré. Le prédateur surgit brutalement de sa cachette, gueule grande ouverte, et sa proie… se fige soudain. Elle semble morte. Cette réponse de figement – appelée « immobilité tonique » – peut sauver la vie de certains animaux. Les opossums sont célèbres pour leur capacité à « faire le mort » afin d’échapper aux prédateurs. Il en va de même pour les lapins, les lézards, les serpents et même certains insectes.
Mais que se passe-t-il quand un requin agit ainsi ?
Dans notre dernière étude, nous avons exploré ce comportement étrange chez les requins, les raies et leurs proches parents. Chez ce groupe, l’immobilité tonique est déclenchée lorsque l’animal est retourné sur le dos : il cesse de bouger, ses muscles se relâchent et il entre dans un état proche de la transe. Certains scientifiques utilisent même cette réaction pour manipuler certains requins en toute sécurité.
Mais pourquoi cela se produit-il ? Et ce comportement aide-t-il réellement ces prédateurs marins à survivre ?
Le mystère du « requin figé »
Bien que ce phénomène soit largement documenté dans le règne animal, les causes de l’immobilité tonique restent obscures – surtout dans l’océan. On considère généralement qu’il s’agit d’un mécanisme de défense contre les prédateurs. Mais aucune preuve ne vient appuyer cette hypothèse chez les requins, et d’autres théories existent.
Nous avons testé 13 espèces de requins, de raies et une chimère – un parent du requin souvent appelé « requin fantôme » – pour voir si elles entraient en immobilité tonique lorsqu’on les retournait délicatement sous l’eau.
Sept espèces se sont figées. Nous avons ensuite analysé ces résultats à l’aide d’outils d’analyse évolutive pour retracer ce comportement sur plusieurs centaines de millions d’années d’histoire des requins.
Alors, pourquoi certains requins se figent-ils ?
Chez les requins, l’immobilité tonique est déclenchée lorsqu’on les retourne sur le dos. Rachel Moore
Trois hypothèses principales
Trois grandes hypothèses sont avancées pour expliquer l’immobilité tonique chez les requins :
Une stratégie anti-prédateur – « faire le mort » pour éviter d’être mangé.
Un rôle reproductif – certains mâles retournent les femelles lors de l’accouplement, donc l’immobilité pourrait réduire leur résistance.
Une réponse à une surcharge sensorielle – une sorte d’arrêt réflexe en cas de stimulation extrême.
Mais nos résultats ne confirment aucune de ces explications.
Il n’existe pas de preuve solide que les requins tirent un avantage du figement en cas d’attaque. En réalité, des prédateurs modernes, comme les orques, exploitent cette réaction en retournant les requins pour les immobiliser, avant d’arracher le foie riche en nutriments – une stratégie mortelle.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
L’hypothèse reproductive est aussi peu convaincante. L’immobilité tonique ne varie pas selon le sexe, et rester immobile pourrait même rendre les femelles plus vulnérables à des accouplements forcés ou nocifs.
Quant à la théorie de la surcharge sensorielle, elle reste non testée et non vérifiée. Nous proposons donc une explication plus simple : l’immobilité tonique chez les requins est probablement une relique de l’évolution.
Une affaire de bagage évolutif
Notre analyse suggère que l’immobilité tonique est un trait « plésiomorphe » – c’est-à-dire ancestral –, qui était probablement présent chez les requins, les raies et les chimères anciens. Mais au fil de l’évolution, de nombreuses espèces ont perdu ce comportement.
En fait, nous avons découvert que cette capacité avait été perdue au moins cinq fois indépendamment dans différents groupes. Ce qui soulève une question : pourquoi ?
Dans certains environnements, ce comportement pourrait être une très mauvaise idée. Les petits requins de récif et les raies vivant sur le fond marin se faufilent souvent dans des crevasses étroites des récifs coralliens complexes pour se nourrir ou se reposer. Se figer dans un tel contexte pourrait les coincer – ou pire. Perdre ce comportement aurait donc pu être un avantage dans ces lignées.
Que faut-il en conclure ?
Plutôt qu’une tactique de survie ingénieuse, l’immobilité tonique pourrait n’être qu’un « bagage évolutif » – un comportement qui a jadis servi, mais qui persiste aujourd’hui chez certaines espèces simplement parce qu’il ne cause pas assez de tort pour être éliminé par la sélection naturelle.
Un bon rappel que tous les traits observés dans la nature ne sont pas adaptatifs. Certains ne sont que les bizarreries de l’histoire évolutive.
Notre travail remet en question des idées reçues sur le comportement des requins, et éclaire les histoires évolutives cachées qui se déroulent encore dans les profondeurs de l’océan. La prochaine fois que vous entendrez parler d’un requin qui « fait le mort », souvenez-vous : ce n’est peut-être qu’un réflexe musculaire hérité d’un temps très ancien.
Jodie L. Rummer reçoit des financements de l’Australian Research Council. Elle est affiliée à l’Australian Coral Reef Society, dont elle est la présidente.
Joel Gayford reçoit des financements du Northcote Trust.