Pourquoi le monde MAGA accorde-t-il autant d’importance à l’affaire Epstein – et pourquoi la publication des dossiers ne devrait pas remettre en cause sa loyauté envers Trump

Source: The Conversation – in French – By Alex Hinton, Distinguished Professor of Anthropology; Director, Center for the Study of Genocide and Human Rights, Rutgers University – Newark

Casquettes MAGA mises à la disposition des soutiens de Donald Trump, pendant la soirée électorale du 5 novembre 2024, à West Palm Beach, en Floride.
Ricky Carioti/The Washington Post/Getty Images

Avec le dernier revirement du président Donald Trump concernant la divulgation des éléments d’enquête de l’affaire Jeffrey Epstein détenus par le ministère américain de la justice – revirement, puisqu’après s’y être opposé, l’hôte de la Maison Blanche s’y déclare aujourd’hui favorable –, les partisans de MAGA pourraient enfin avoir accès aux documents qu’ils attendent depuis longtemps. Dans l’après-midi du 18 novembre 2025, la Chambre a voté à une écrasante majorité en faveur de leur divulgation, un seul républicain ayant voté contre la mesure. Plus tard dans la journée, le Sénat a approuvé à l’unanimité l’adoption de la mesure, ensuite transmise au président pour signature.

Naomi Schalit, notre collègue du service politique de « The Conversation » aux États-Unis, s’est entretenue avec Alex Hinton, qui étudie le mouvement MAGA depuis des années, au sujet de l’intérêt soutenu des républicains du mouvement Make America Great Again pour l’affaire Jeffrey Epstein, accusé de trafic sexuel d’enfants. Hinton explique comment cet intérêt s’accorde avec ce qu’il connaît du noyau dur des partisans de Trump.


The Conversation : Vous êtes un expert du mouvement MAGA. Comment avez-vous constitué vos connaissances en la matière ?

Alex Hinton : Je suis anthropologue culturel, et notre travail consiste à mener des recherches sur le terrain. Nous allons là où les personnes que nous étudions vivent, agissent et parlent. Nous observons, nous passons du temps avec elles et nous voyons ce qui se passe. Nous écoutons, puis nous analysons ce que nous entendons. Nous essayons de comprendre les systèmes de signification qui structurent le groupe que nous étudions. Et puis, bien sûr, il y a les entretiens.

Un homme en costume, entouré d’une foule, se tient devant un pupitre recouvert de microphones sur lequel est inscrit « EPSTEIN FILES TRANSPARENCY ACT » (loi sur la transparence des dossiers Epstein)
Le représentant états-unien Thomas Massie, républicain du Texas, s’exprime lors d’une conférence de presse aux côtés de victimes présumées de Jeffrey Epstein, au Capitole américain, le 3 septembre 2025.
Bryan Dozier/Middle East Images/AFP/Getty Images

Il semble que les partisans inconditionnels de Trump, les MAGA, soient très préoccupés par divers aspects de l’affaire Epstein, notamment la divulgation de documents détenus par le gouvernement des États-Unis. Sont-ils réellement préoccupés par cette affaire ?

A. H. : La réponse est oui, mais elle comporte aussi une sorte de « non » implicite. Il faut commencer par se demander ce qu’est le mouvement MAGA.

Je le perçois comme ce que l’on appelle en anthropologie un « mouvement nativiste », centré sur les « habitants du pays ». C’est là que prend racine le discours « America First ».

C’est aussi un mouvement xénophobe, marqué par la peur des étrangers, des envahisseurs. C’est un mouvement populiste, c’est-à-dire tourné vers « le peuple ».

Tucker Carlson a interviewé Marjorie Taylor Greene, et il a déclaré : « « Je vais passer en revue les cinq piliers du MAGA. » Il s’agissait de l’Amérique d’abord, pilier absolument central ; des frontières – qu’il faut sécuriser ; du rejet du mondialisme, ou du constat de l’échec de la mondialisation ; de la liberté d’expression ; et de la fin des guerres à l’étranger. J’ajouterais l’insistance sur « Nous, le peuple », opposé aux élites.

Chacun de ces piliers est étroitement lié à une dynamique clé du mouvement MAGA, à savoir la théorie du complot. Et ces théories du complot sont en général anti-élites et opposant « Nous, le peuple » à ces dernières.

Et si l’on prend l’affaire Epstein, on constate qu’elle fait converger de nombreuses théories du complot : Stop the Steal, The Big Lie, la « guerre juridique », l’« État profond », la théorie du remplacement. Epstein touche à tous ces thèmes : l’idée d’une conspiration des élites agissant contre les intérêts du peuple, avec parfois une tonalité antisémite. Et surtout, si l’on revient au Pizzagate en 2016, où la théorie affirmait que des élites démocrates se livraient à des activités « démoniaques » de trafic sexuel, Epstein est perçu comme la preuve concrète de ces accusations.

Une sorte de fourre-tout où Epstein est le plus souvent impliqué qu’autre chose ?

A. H. : On le retrouve partout. Présent dès le début, car il fait partie de l’élite et qu’on pense qu’il se livrait au trafic sexuel. Et puis il y a les soupçons envers un « État profond », envers le gouvernement, qui nourrissent l’idée de dissimulations. Que promettait MAGA ? Trump a dit : « Nous allons vous donner ce que vous voulez », n’est-ce pas ? Kash Patel, Pam Bondi, tout le monde disait que tout serait dévoilé. Et, à y regarder de plus près, cela ressemble fortement à une dissimulation.

Mais en fin de compte, beaucoup de membres de MAGA ont compris qu’il fallait rester fidèles à Trump. Dire qu’il n’y a pas de MAGA sans Trump serait peut-être excessif. S’il n’y a certainement pas de trumpisme sans Trump, le MAGA sans Trump serait comme le Tea Party : le mouvement disparaîtrait tout simplement.

La base MAGA soutient Trump plus que les républicains traditionnels sur ce sujet. Je ne pense donc pas que cela provoquera une rupture, même si cela crée des tensions. Et on voit bien en ce moment que Trump traverse certaines tensions.

Une femme blonde coiffée d’un bonnet rouge parle devant un micro tandis qu’un homme en costume se tient derrière elle, avec des drapeaux américains en arrière-plan
Le président Donald Trump et la représentante Marjorie Taylor Greene, qui le soutenait de longue date et qui est devenue persona non grata à la suite de la publication des dossiers Epstein.
Elijah Nouvelage/AFP Getty Images

La rupture que nous observons est celle de Trump avec l’une de ses principales partisanes du MAGA, l’élue républicaine de Géorgie Marjorie Taylor Greene, et non celle de la partisane du MAGA avec Trump.

Avec Greene, sa relation avec Trump ressemble parfois à un yo-yo : tensions, séparation, puis réconciliation. Avec Elon Musk c’était un peu la même chose. Une rupture, puis un retour en arrière – comme Musk l’a fait. Je ne pense pas que cela annonce une fracture plus large au sein de MAGA.

Il semble que Trump ait fait volte-face au sujet de la publication des documents afin que le mouvement MAGA n’ait pas à rompre avec lui.

A. H. : C’est tout à fait vrai. Trump est extrêmement habile pour retourner n’importe quelle histoire à son avantage. Il est un peu comme un joueur d’échecs
– sauf quand il laisse échapper quelque chose – avec toujours deux coups d’avance, et, d’une certaine manière, nous sommes toujours en retard. C’est impressionnant.

Il y a une autre dimension de la mouvance MAGA : l’idée qu’il ne faut pas « contrarier le patron ». C’est une forme d’attachement excessif à Trump, et personne ne le contredit. Si vous vous écartez de la ligne, vous savez ce qui peut arriver – regardez Marjorie Taylor Greene. Vous risquez d’être éliminé lors des primaires.

Trump a probablement joué un coup stratégique brillant, en déclarant soudainement : « Je suis tout à fait favorable à sa divulgation. Ce sont en réalité les démocrates qui sont ces élites maléfiques, et maintenant nous allons enquêter sur Bill Clinton et les autres. » Il reprend le contrôle du récit, il sait parfaitement comment faire, et c’est intentionnel. On peut dire ce qu’on veut, mais Trump est charismatique, et il connaît très bien l’effet qu’il produit sur les foules. Ne le sous-estimez jamais.

Le mouvement MAGA se soucie-t-il des filles qui ont été victimes d’abus sexuels ?

A. H. : Il existe une réelle inquiétude, notamment parmi les chrétiens fervents du mouvement MAGA, pour qui le trafic sexuel est un sujet central.

Si l’on considère les principes de moralité chrétienne, cela renvoie aussi à des notions d’innocence, d’attaque par des forces « démoniaques », et d’agression contre « Nous, le peuple » de la part des élites. C’est une violation profonde, et, bien sûr, qui ne serait pas horrifié par l’idée de trafic sexuel ? Mais dans les cercles chrétiens, ce sujet est particulièrement important.

The Conversation

Alex Hinton a reçu des financements du Rutgers-Newark Sheila Y. Oliver Center for Politics and Race in America, du Rutgers Research Council et de la Henry Frank Guggenheim Foundation.

ref. Pourquoi le monde MAGA accorde-t-il autant d’importance à l’affaire Epstein – et pourquoi la publication des dossiers ne devrait pas remettre en cause sa loyauté envers Trump – https://theconversation.com/pourquoi-le-monde-maga-accorde-t-il-autant-dimportance-a-laffaire-epstein-et-pourquoi-la-publication-des-dossiers-ne-devrait-pas-remettre-en-cause-sa-loyaute-envers-trump-270310

‘Jeffrey Epstein is not unique’: What his case reveals about the realities of child sex trafficking

Source: The Conversation – USA – By Kate Price, Associate Research Scientist at the Wellesley Centers for Women, Wellesley College

Jeffrey Epstein abuse survivor Lisa Phillips speaks during the press conference on the Epstein Files Transparency Act in Washington, D.C., on Nov. 18, 2025. Celal Gunes/Anadolu via Getty Images

Congress on Nov. 18, 2025, passed legislation that calls on the Justice Department to release records related to Jeffrey Epstein, the late convicted sex offender. Those records on the federal investigation of Epstein and his accomplice, Ghislaine Maxwell, have brought renewed attention to sex trafficking. Alfonso Serrano, a politics editor at The Conversation, spoke with Kate Price, an associate research scientist at the Wellesley Centers for Women at Wellesley College, where she studies child sexual exploitation and child sex trafficking policy.

What is child sex trafficking and how does it differ from other kinds of trafficking?

It is a child being traded for sex via force, fraud or coercion. These are children who are under the age of 18. Often what happens, in terms of victim blaming, if a child is, say, 15, 16, 17, there’s this level of blame from perpetrators, the media, relatives, law enforcement, jurors: “She knew what she was doing.” I recently heard this with the Epstein files back in the news: “He wasn’t into like 8-year-olds. … There’s a difference between a 15-year-old and a 5-year-old.” That’s not true. Children cannot make decisions that adults can. Neuroscience shows that children’s brains are not developed until their mid 20s. Children do not have the same decision-making capacity. That very vulnerability is what is preyed upon by perpetrators.

Why do we not use terms like “child prostitution” anymore, and why does language matter?

In the late 1990s and early aughts, at the beginning of the anti-human trafficking movement, people did use the term child prostitution. In fact, I used it in a white paper that I did, and I’m a survivor. But once we really adopted and embraced the terminology of force, fraud and coercion of human trafficking, that gave us a new frame to think of the power dynamics that are involved in the commercial sexual exploitation of children. This phrasing captures the true essence of what is happening within child sex trafficking.

This is not a child somehow deciding that they’re going to go out and trade sex for money, heat, food, anything of value. This is a case of perpetrators, whether they are family members or nonfamily traffickers, who are preying on the vulnerability of children who have often been sexually abused prior to their commercial sexual exploitation. This prior abuse adds another layer of vulnerability.

A billboard advertises for help for survivors of sex trafficking.
A billboard in Vadnais Heights, Minn., in 2023 calls for help for survivors of sex trafficking.
Michael Siluk/UCG/Universal Images Group via Getty Images

How do Epstein’s actions fit into the paradigm of trafficking – is he a classic case or an unusual one?

Jeffrey Epstein is not unique. This is absolutely a classic case, for four primary reasons. Child sex trafficking perpetrators are primarily white men, with wealth and power. Epstein was, granted, among the uber rich and really powerful men. But power is relative to whatever context in which a child is being exploited. The most powerful person in a small town may not be a billionaire like Epstein, but they have disposable income and high socioeconomic status for the area, or they may hold a prominent position in government, church or a civic organization.

The Epstein case is also not unique in that victims are often dehumanized, by perpetrators and in the media. They are blamed, even though they are children who are developmentally incapable of making adult choices. There are transcripts of Maxwell calling the girls “trash.” These are seen as disposable children, not worthy of protections. And they have already been dehumanized within our culture prior to exploitation, whether it be through poverty, lack of educational or employment opportunities, or prior sexual violence. That makes them even more vulnerable to perpetrators such as Epstein and Maxwell, who are looking to prey upon those vulnerabilities.

Third, traffickers often insulate themselves from detection and trafficking charges by having others, such as women or girls, recruiting victims for them, which is exactly what Epstein did. Lastly, traffickers and buyers often plea down their trafficking charges. That results in low trafficking prosecution rates. They plea down from a charge like trafficking of a minor to assault, so this does not count toward trafficking prosecution rates. Epstein did exactly this in 2008 when he accepted prosecutor Alex Acosta’s nonprosecution agreement to plead guilty to two lesser Florida state-level prostitution charges rather than facing the multiple federal child sex trafficking charges for which Epstein was being investigated. This ability to use their wealth and power hides the truth of what is happening.

What systems allow sex trafficking to happen, and how can we change those systems?

Law enforcement often looks the other way. In the Epstein case, one of the victims had reached out to the FBI decades ago and nothing happened. It’s really been the persistence of the survivors, saying people really need to look at this.

Child sex trafficking is not a political issue. It’s one of the few bipartisan issues in our country that is so culturally divided. Yet Americans need to acknowledge that perpetrators comes from all political affiliations, they come from all races, socioeconomic status. As a culture, we really need to not blame victims and survivors. These are children who are being manipulated and violated. So recognizing the truth of power differences between perpetrators and victims is something that we as a culture very much need to do. By supporting victims, we can use our power – as relatives, jurors, constituents, elected officials – to hold traffickers and buyers to account. Victim-blaming creates a diversion that cements perpetrators’ ability to exploit and abuse children without fear of detection.

A woman in a red blazer points to a poster showing a man hugging a woman.
Audrey Strauss, acting U.S. attorney for the Southern District of New York, announces charges against Ghislaine Maxwell on July 2, 2020, for her alleged role in the sexual exploitation and abuse of multiple minor girls by Jeffrey Epstein.
AP Photo/John Minchillo, File

In terms of legislation, most states in the country still retain the right to criminalize sexually exploited minors, either through arrests or prosecution. These are laws that all states have considered since 2007, when New York was the first state to introduce a Safe Harbor law.

In Massachusetts, where I live, law enforcement retains the right to arrest or prosecute a minor for prostitution. That often doesn’t happen. But the reason law enforcement says it needs to have these laws is because it encourages children to get services. It’s a leverage point.

But oftentimes children do not trust law enforcement. And often for good reason. Some law enforcement are perpretrators. Other times, law enforcement tells sex-trafficked minors, “We’re doing this for your protection, we’re going to lock you up.” Both instances are deeply traumatizing and lead to mistrust of the police. That being said, so many extraordinary law enforcement agents are committed to supporting child sex trafficking victims and holding perpetrators to account.

Much of this retraumatization happens because local and state governments do not have the money for social services, trauma-informed, child sex trafficking-specific services, and housing opportunities for children to be able to heal. What we have is a robust criminal legal system. So, until we have a robust system that can support children who have been trafficked, sex trafficking is going to continue, in my experience.

Any last thoughts?

We need to acknowledge low prosecution rates of child sexual abuse cases, that 14% of all reported – just reported – child sexual abuse perpetrators are convicted or plead guilty. Similarly, in terms of adult rape charges, 1% of cases end in a conviction or guilty plea. So much of this lack of perpetrator accountability comes through this employment of plea deals and dehumanizing and retraumatizing victims during legal proceedings.

So we need to acknowledge when our criminal-legal system is not doing justice to victims whatsoever, and they’re allowing perpetrators to walk free. In the Epstein case, we’re focused on a few people, while hundreds of perpetrators continue to walk free. By employing these tactics, predators will continue to use the societal silence and misperceptions to their advantage. If it takes a village to raise a child, it also takes a village to sexually exploit a child.

The Conversation

Kate Price does not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. ‘Jeffrey Epstein is not unique’: What his case reveals about the realities of child sex trafficking – https://theconversation.com/jeffrey-epstein-is-not-unique-what-his-case-reveals-about-the-realities-of-child-sex-trafficking-270127

First Amendment in flux: When free speech protections came up against the Red Scare

Source: The Conversation – USA – By Jodie Childers, Assistant Professor of English, University of Virginia

Hollywood screenwriter Samuel Ornitz speaks before the House Un-American Activities Committee in Washington, D.C., on Oct. 29, 1947. UPI/Bettmann Archive via Getty Images

As the United States faces increasing incidents of book banning and threats of governmental intervention – as seen in the temporary suspension of TV host Jimmy Kimmel – the common reflex for many who want to safeguard free expression is to turn to the First Amendment and its free speech protections.

Yet, the First Amendment has not always been potent enough to protect the right to speak. The Cold War presented one such moment in American history, when the freedom of political expression collided with paranoia over communist infiltration.

In 1947, the House Un-American Activities Committee subpoenaed 10 screenwriters and directors to testify about their union membership and alleged communist associations. Labeled the Hollywood Ten, the defiant witnesses – Alvah Bessie, Herbert Biberman, Lester Cole, Edward Dmytryk, Ring Lardner Jr., John Howard Lawson, Albert Maltz, Samuel Ornitz, Adrian Scott and Dalton Trumbo – refused to answer questions on First Amendment grounds. During his dramatic testimony, Lawson proclaimed his intent “to fight for the Bill of Rights,” which he argued the committee “was trying to destroy.”

They were all cited for contempt of Congress. Eight were sentenced to a year in federal prison, and two received six-month terms. Upon their release, they faced blacklisting in the industry. Some, like writer Dalton Trumbo, temporarily left the country.

As a researcher focused on the cultural cold war, I have examined the role the First Amendment played in the anti-communist hearings during the 1940s and ’50s.

The conviction and incarceration of the Hollywood Ten left a chilling effect on subsequent witnesses called to appear before congressional committees. It also established a period of repression historians now refer to as the Second Red Scare.

Although the freedom of speech is enshrined in the Constitution and prized by Americans, the story of the Second Red Scare shows that this freedom is even more fragile than it may now seem.

The Fifth Amendment communists

After the 1947 hearings, the term “unfriendly” became a label applied by the House Un-American Activities Committee and the press to the Hollywood Ten and any witnesses who refused to cooperate with the committee. These witnesses, who wanted to avoid the fate of the Hollywood Ten, began to shift away from the First Amendment as a legal strategy.

They chose instead to plead the Fifth Amendment, which grants people the right to protect themselves from self-incrimination. Many prominent artists during the 1950s, including playwright Lillian Hellman and singer and activist Paul Robeson, opted to invoke the Fifth when called before the committee and asked about their political affiliations.

The Fifth Amendment shielded hundreds of “unfriendly” witnesses from imprisonment, including artists, teachers and federal workers. However, it did not save them from job loss and blacklisting.

While they could avoid contempt citations by pleading the Fifth, they could not erase the stain of perceived guilt. This legal approach became so widespread that U.S. Sen. Joseph McCarthy, the country’s leading anti-communist crusader, disparaged these witnesses as “Fifth Amendment Communists” and boasted of purging their ranks from the federal government.

Three photos of a man in suit and tie.
Three portraits of Albert Einstein taken in Princeton, N.J., in March 1953.
AP Photo

From Fifth back to First

In 1953, the physicist Albert Einstein became instrumental in revitalizing the force of the First Amendment as a rhetorical and legal tactic in the congressional hearings. Having fled Germany after the Nazis came to power, Einstein took a position at Princeton in 1933 and became an important voice in American politics.

Einstein’s philosophical battle against McCarthyism began with a letter to a Brooklyn high school teacher named William Frauenglass.

In April of that year, Frauenglass was subpoenaed to appear before the Senate Internal Security Subcommittee, “the Senate counterpart” of the House Un-American Activities Committee, to testify about his involvement in an intercultural education seminar. After the hearing, in which Frauenglass declined to speak about his political affiliations, he risked potential termination from his position and wrote to Einstein seeking support.

In his response, Einstein urged Frauenglass and all intellectuals to enact a “revolutionary” form of complete “noncooperation” with the committee.

While Einstein advised noncompliance, he also acknowledged the potential risk: “Every intellectual who is called before one of the committees ought to refuse to testify, i.e., he must be prepared for jail and economic ruin, in short, for the sacrifice of his personal welfare in the interest of the cultural welfare of his country.”

Frauenglass shared his story with the press, and Einstein’s letter was published in full in The New York Times on June 12, 1953. It was also quoted in local papers around the country.

One week later, Frauenglass was fired from his job.

After learning about Einstein’s public position, McCarthy labeled the Nobel laureate “an enemy of America.” That didn’t stop Einstein’s campaign for freedom of expression. He continued to encourage witnesses to rely on the First Amendment.

When the engineer Albert Shadowitz received a subpoena in 1953 to appear before McCarthy’s Senate Permanent Subcommittee on Investigations, to answer questions about alleged ties to the Communist Party, he traveled to Einstein’s home to seek out the physicist’s advice. After consulting with Einstein, Shadowitz opted for the First Amendment over the Fifth Amendment.

On Dec. 16, 1953, Shadowitz informed the committee that he had received counsel from Einstein. He then voiced his opposition to the hearing on the grounds of the First Amendment: “I will refuse to answer any question which invades my rights to think as I please or which violates my guarantees of free speech and association.”

He was cited for contempt in August 1954 and indicted that November, facing a potential year in prison and US$1,000 fine. As an indicator of McCarthy’s diminishing power, the charge was thrown out in July 1955 by a federal judge.

A Black man sits in front of a table with a microphone on it.
Singer Paul Robeson appears before the House Un-American Activities Committee in Washington, D.C., in 1956.
Bettmann Archive/Getty Images

The triumph of dissent

Well-known public figures also began to turn away from the Fifth Amendment as a legal tactic and to draw on the First Amendment.

In August 1955, when the folk musician Pete Seeger testified before the House Un-American Activities Committee, he voiced his rejection of the Fifth Amendment defense during the hearing. Seeger asserted that he wanted to use his testimony to call into question the nature of the inquiry altogether.

Pleading the protection of the First Amendment, Seeger refused “to answer any questions” related to his “political beliefs” and instead interrogated the committee’s right to ask such questions “under such compulsion as this.”

When the playwright Arthur Miller was subpoenaed by the committee in 1956, he also refused to invoke the Fifth. Both were cited for contempt. Seeger was sentenced to a year in prison. Miller was given the option to pay a $500 dollar fine or spend 30 days in jail.

As Seeger and Miller fought their appeals in court, McCarthy’s popularity continued to wane, and public sentiment began to shift.

Prompted by Einstein, the noncompliant witnesses in the 1950s reshaped the public discussion, refocusing the conversation on the importance of freedom of expression rather than the fears of imagined communist infiltration.

Although the First Amendment failed to keep the Hollywood Ten out of prison, it ultimately prevailed. Unlike the Hollywood Ten, both Miller and Seeger won their appeals. Miller spent no time in prison and Seeger only one day in jail. Miller’s conviction was reversed in 1958, Seeger’s in 1962. The Second Red Scare was over.

As the Second Red Scare shows, when free speech is under attack, strategic compliance may be useful for individuals. However, bold and courageous acts of dissent are critical for protecting First Amendment rights for everyone.

The Conversation

I met Pete Seeger personally while directing a documentary film about his environmental legacy.

ref. First Amendment in flux: When free speech protections came up against the Red Scare – https://theconversation.com/first-amendment-in-flux-when-free-speech-protections-came-up-against-the-red-scare-267809

Farmers – long Trump backers – bear the costs of new tariffs, restricted immigration and slashed renewable energy subsidies

Source: The Conversation – USA (2) – By Kee Hyun Park, Assistant Professor of International Political Economy, Nanyang Technological University; Institute for Humane Studies

U.S. farmers, including those who grow soybeans, are under pressure from various Trump administration policies. Jan Sonnenmair/Getty Images

Few political alliances in recent American history have seemed as solid as the one between Donald Trump and the country’s farmers. Through three elections, farmers stood by Trump even as tariffs, trade wars and labor shortages squeezed profits.

But Trump’s second term may be different.

A new round of administration policies now cuts deeper into farmers’ livelihoods – not just squeezing profits but reshaping how farms survive – through renewed tariffs on agricultural products, visa restrictions on farm workers, reduced farm subsidies and open favoritism toward South American agricultural competitors.

In the past, farmers’ loyalty to Trump has overridden economics. In our study of the 2018–19 trade war between the U.S. and China, we found that farmers in Trump-voting counties kept planting soybeans even though the trade war’s effects were clear: Their costs would rise and their profits would fall. Farmers in Democratic-leaning counties, by contrast, shifted acreage toward alternatives such as corn or wheat that were likely to be more profitable. For many pro-Trump farmers, political belief outweighed market logic – at least in the short term.

Today, the economic effects of policies affecting farmers are broader and deeper – and the resolve that carried farmers’ support for Trump through the first trade war may no longer be enough.

Tariffs: The familiar pain returns

The revived U.S.-China trade conflict has again placed soybeans at its center. In March 2025, Beijing suspended import licenses for several major U.S. soybean exporters following new U.S. tariffs on Chinese goods. Trump countered with a new round of reciprocal tariffs, broadening the list of Chinese imports hit and raising rates on already targeted goods.

An October 2025 deal promised China would buy 25 million metric tons of U.S. soybeans a year, but relief has proved mostly symbolic.

Before the 2018-19 trade war, China regularly imported 30 million to 36 million metric tons of U.S. soybeans annually — more than one-third of all American soybean exports. Now, Beijing has signed long-term contracts with Brazil and Argentina, leaving U.S. producers with shrinking overseas demand for their crops.

Prices remain roughly 40% to 50% below pre-2018 levels, and farmers are storing record volumes of unsold soybeans.

In 2019, the federal government cushioned those losses with over $23 billion in bailout payments to farmers. This time, Republican leaders show little appetite for another bailout. Meanwhile, the U.S. Department of Agriculture’s funds for farm relief are running low, leaving farmers with lower prices and less support.

People walk among rows of plants.
Immigrants are a key labor force on U.S. farms.
Visions of America/Joe Sohm/Universal Images Group via Getty Images

Labor: Fewer hands, higher costs

Farms are also short of workers. Roughly 42% of U.S. crop workers lack legal status, according to the National Agricultural Workers Survey. Tougher immigration enforcement and slower visa processing have thinned the labor pool just as production costs are surging. Hired-labor expenses rose 14.4% from 2021 to 2022 and another 15.2% the following year, and costs such as fertilizer, equipment and parts climbed sharply.

Many growers are turning to the H-2A guest worker program – a legal pipeline for seasonal foreign labor that has quadrupled in size over the past decade. But it is expensive: Farms must pay the adverse effect wage rate, a federally set pay rate that is more than twice the regular federal minimum wage. And farms must provide every H-2A worker with free housing and free transportation to and from the U.S., as well as from their housing to the worksite. Large agribusinesses can absorb those costs; small family farms often cannot.

As exports collapsed in late September 2025, the head of the American Soybean Association wrote a public letter to the White House begging for help, saying, “We’ve had your back. We need you to have ours now.” The hard-line immigration policy approach that rallies rural voters is also pushing smaller farms to the brink – forcing them to ask what their loyalty still buys.

Two men in suits stand next to each other.
U.S. President Donald Trump met Argentinian President Javier Milei at the White House in October 2025.
AP Photo/Alex Brandon

Subsidies and symbolism: The Argentina shock

The question of the value of farmers’ loyalty sharpened in the fall of 2025 when the U.S. Treasury approved a $20 billion currency-swap deal with Argentina – supporting the country’s president, Javier Milei, a political ally of Trump, while the country remains a direct agricultural competitor.

U.S. farmers, already frustrated by low prices and visa delays, took it as an insult. Argentina is among the world’s largest soybean exporters, and U.S. farm groups asked why the federal government would underwrite a competitor while trimming support for American producers at home.

The tension deepened when Trump floated the idea of buying Argentinian beef for U.S. markets – a remark one Kansas rancher called “an absolute betrayal.” The plan may be economically minor, but symbolically it pierced the “America First” narrative that had helped hold the farm vote together.

A farmer looks at the camera with cows around him and a large red bar with solar panels on the roof behind him. The photos was taken at the Milkhouse Dairy in Monmouth, Maine, on Oct. 3, 2019.
Solar panels can help cut energy costs for farm operations, such as dairies.
Shawn Patrick Ouellette/Portland Press Herald via Getty Images

Clean energy: The new rural subsidy under threat

For decades, the farm vote relied on federally funded support programs – crop insurance, price guarantees and disaster assistance – which account for a significant share of net farm income. Over the past five years, a quieter lifeline has emerged: renewable energy.

Wind and solar projects have brought jobs, tax revenue and steady lease payments to rural counties that have been losing both population and farm income for decades. Iowa now gets about 63% of its electricity from wind, while Texas, Oklahoma and Kansas have seen significant growth.

That momentum has stalled. In August 2025, a U.S. Treasury Department policy change froze billions in rural investment in renewable energy projects. Industry trackers report that prolonged uncertainty has pushed many Midwestern renewable projects into limbo.

For farmers, this isn’t an abstract climate debate — it’s a lost income stream. Leasing land for turbines or solar panels brought in tens of thousands of dollars a year and kept many family farms afloat.

The freeze wipes out one of the few growth engines in rural America and highlights an irony at the heart of Trump’s message: The administration that promises to protect the heartland is dismantling the clean energy investments that were finally helping it diversify.

Two men in suits sit at a table in front of a giant American flag and a sign saying 'Protect our food from China.'
During his 2024 presidential campaign, Donald Trump promised support to U.S. farmers, alongside future EPA head Lee Zeldin.
Win McNamee/Getty Images

Politics: How deep does loyalty run?

As our research found, during the first trade war, Trump-voting counties absorbed heavy financial losses without changing course. That loyalty was propped up by subsidies – and by hope. This time, neither cushion is secure.

Many farmers still share Trump’s skepticism of Washington and global elites. But shrinking federal backing, tighter labor and a competitor’s bailout cut close to home. The question now is whether cultural identity can keep outweighing material loss – or whether the second trade war will signal a deeper political shift.

No sudden collapse of rural support for Trump is likely; cultural loyalty doesn’t fade overnight. But strain is visible. Farm groups are quietly pressing for pragmatic trade policy and visa reform, and several Republican governors now lobby for labor flexibility rather than tougher enforcement.

If the first Trump trade war tested farmers’ wallets, this one tests their faith – and faith, once shaken, is far harder to restore.

The Conversation

The authors do not work for, consult, own shares in or receive funding from any company or organization that would benefit from this article, and have disclosed no relevant affiliations beyond their academic appointment.

ref. Farmers – long Trump backers – bear the costs of new tariffs, restricted immigration and slashed renewable energy subsidies – https://theconversation.com/farmers-long-trump-backers-bear-the-costs-of-new-tariffs-restricted-immigration-and-slashed-renewable-energy-subsidies-269221

Pourquoi la dernière dégradation de la note du Sénégal par Moody’s ne tient pas la route

Source: The Conversation – in French – By Misheck Mutize, Post Doctoral Researcher, Graduate School of Business (GSB), University of Cape Town

La décision de l’agence de notation Moody’s de dégrader la notation souveraine du Sénégal, fin octobre 2025, a immédiatement déclenché une vente massive des eurobonds du pays qui a duré une semaine. Il s’agissait de la troisième dégradation en un an. Elle a entraîné une décote de 40 % par rapport à leur valeur nominale pour les obligations à 16 ans du pays. Autrement dit, pour un titre libellé à un dollar, les investisseurs ne payaient plus que 60 cents.

Cette décision a relancé les critiques sur la fiabilité des décisions des trois grandes agences de notation mondiales, Moody’s, Standard and Poor’s et Fitch lorsqu’elles évaluent des pays africains.

L’une des principales raisons de la dégradation de la note par Moody’s était la décision du Sénégal de se tourner vers les marchés régionaux pour lever des capitaux. Depuis le début de l’année 2025, le gouvernement a levé plus de 5 milliards de dollars américains via le marché obligataire régional de l’Union économique et monétaire ouest-africaine. Cela représente environ 12 % de la dette publique du Sénégal, estimée à 42 milliards de dollars américains.

Moody’s a interprété cette stratégie du Sénégal comme un signe de fragilité. L’agence affirme que la dépendance vis-à-vis des investisseurs régionaux pourrait exposer le Sénégal à « un revirement de la confiance des investisseurs ». En d’autres termes, l’agence de notation a considéré le fait que le Sénégal ait mobilisé des capitaux nationaux et régionaux comme une nouvelle source de risques. Pourtant, S&P y voit un point fort.

Je mène depuis des décennies des recherches sur les marchés financiers africains et les institutions qui les régulent. Avec ce recul, il est clair pour moi que l’analyse de Moody’s est non seulement injuste, mais elle est aussi bancale. S’appuyer sur les marchés locaux et régionaux n’est en rien une faiblesse. C’est au contraire une stratégie de souveraineté budgétaire que des économistes et des dirigeants africains recommandent depuis longtemps.

Le problème vient surtout de la façon dont le risque est défini. Les modèles de notation appliqués aux pays émergents se concentrent encore sur quelques indicateurs macroéconomiques : PIB par habitant, réserves de change, solde du compte courant ou existence d’un programme du FMI. Ils ignorent des éléments essentiels, comme le rôle des investisseurs nationaux, la capacité d’adaptation budgétaire ou encore le dynamisme des marchés régionaux.

Marchés régionaux contre marchés mondiaux

Les pays du monde entier s’appuient de plus en plus sur les marchés locaux et régionaux pour lever des capitaux. En Afrique, l’Afrique du Sud, le Nigeria, le Burkina Faso, le Mali et la Côte d’Ivoire ont suivi les mêmes tendances que celles observées au Mexique, au Brésil et en Indonésie, qui privilégient les emprunts nationaux et régionaux.

Le financement régional et local présente plusieurs avantages pour les pays.

Premièrement, il réduit l’exposition au risque de change en diminuant les besoins en réserves de devises étrangères pour le service de la dette.

Deuxièmement, il renforce la liquidité du marché intérieur en augmentant le nombre d’investisseurs locaux sur le marché obligataire.

Troisièmement, il maintient les paiements au titre du service de la dette au sein de l’écosystème financier africain. Il permet ainsi de conserver les capitaux sur le continent et de réduire la dépendance à l’égard de financements externes volatils.

Enfin, il minimise les fluctuations du marché. Les détenteurs d’obligations nationales sont en grande partie des investisseurs institutionnels locaux, un pool de capitaux plus stable et moins spéculatif qui comprend bien mieux la dynamique du marché local que les agences de notation externes.

Les émissions obligataires régionales du Sénégal ont obtenu d’excellents résultats, car les investisseurs souhaitent acheter plus que ce que le gouvernement propose, ce qui témoigne d’une forte demande. Les taux d’intérêt, autour de 7 %, sont aussi largement inférieurs aux taux à deux chiffres qu’auraient exigés les marchés internationaux via les eurobonds.

En clair, emprunter localement était moins coûteux, moins risqué et plus avantageux pour le Sénégal que d’emprunter sur les marchés mondiaux.

Les investisseurs de toute la région (fonds de pension, banques et compagnies d’assurance) se sont bousculés pour acheter les obligations lors des cinq émissions de 2025.

Le succès du Sénégal renforce la confiance des investisseurs locaux et encourage d’autres gouvernements africains à mobiliser leurs propres marchés de capitaux. Il s’agit là d’une puissante dynamique pour lever davantage de capitaux africains pour le développement du continent.

Quand les notations deviennent une source de risque

La dégradation de la note par Moody’s a déclenché des ventes immédiates des euro-obligations du Sénégal arrivant à échéance en 2048, faisant chuter leur prix à environ 72 cents pour un dollar. Cette chute n’était pas due à une détérioration des fondamentaux économiques du pays, mais à un changement d’humeur des investisseurs après la décision de Moody’s.

Ce mécanisme crée un cercle vicieux. Une note négative provoque une fuite des investisseurs, ce qui augmente le coût de l’emprunt et semble confirmer le pessimisme initial. La perception du risque devient ainsi une source de risque.

Ce cycle fragilise la crédibilité des politiques publiques des gouvernements africains. Il décourage les réformes et freine l’innovation.

Ce n’est pas la première fois que les agences de notation mettent en garde contre des risques qui ont une probabilité quasi nulle de se concrétiser. Ce faisant, elles ébranlent la confiance des investisseurs et provoquent une fuite des capitaux. Citons notamment :

  • Pendant la crise du COVID, S&P a mis en garde contre des pénuries alimentaires imminentes et l’épuisement des réserves de devises étrangères en Égypte, malgré la stabilité des flux de transferts de fonds et la gestion active de la banque centrale.

  • En 2023, le gouvernement kenyan a annoncé son intention de racheter une partie de ses eurobonds arrivant à échéance. Il s’agissait d’une mesure prudente de gestion de la dette, mais Moody’s a averti qu’elle serait interprétée comme un signe de détresse. Cela ne s’est jamais produit. En fait, Moody’s a ensuite relevé la perspective du Kenya, en grande partie grâce au succès de cette restructuration qu’elle avait jugée risquée dix mois plus tôt.

Ce qui doit changer

Les notations financières sont censées guider les investisseurs, non orienter les politiques économiques. Mais dans le cas de l’Afrique, elles font souvent les deux. Beaucoup d’investisseurs institutionnels sont tenus de ne détenir que des titres de qualité (bien notés) « investment grade ». Une seule dégradation peut brusquement couper un pays des marchés financiers internationaux.

Les conséquences sont immédiates et graves : hausse des taux d’intérêt, accès réduit au crédit, affaiblissement des devises et perception d’une crise. Cette séquence peut se produire même lorsque les fondamentaux sous-jacents d’un pays restent solides. Des évaluations de notation trop prudentes ne reflètent pas seulement le sentiment négatif du marché, elles le créent.

L’Afrique n’a pas besoin d’un traitement spécial, mais d’une évaluation de notation équilibrée et tenant compte du contexte local.

Une analyse précise du risque devrait reconnaître la logique stratégique du recours aux marchés locaux et régionaux. Ce choix permet aux gouvernements africains de construire des alternatives adaptées à leurs réalités.

Les agences mondiales doivent donc recalibrer leur analyse. Elles doivent intégrer la profondeur des marchés régionaux et domestiques, la capacité d’adaptation budgétaire et la solidité des acteurs financiers africains. Les ignorer et ne retenir que les faiblesses perçues revient à présenter aux investisseurs une image tronquée.

Sans ces ajustements, les agences de notation continueront à être en décalage avec la réalité économique et risquent de devenir des instruments de distorsion plutôt que des outils d’analyse.

The Conversation

Misheck Mutize est affilié au Mécanisme africain d’évaluation par les pairs de l’Union africaine en tant qu’expert principal en matière de notation de crédit.

ref. Pourquoi la dernière dégradation de la note du Sénégal par Moody’s ne tient pas la route – https://theconversation.com/pourquoi-la-derniere-degradation-de-la-note-du-senegal-par-moodys-ne-tient-pas-la-route-270301

Pourquoi la transformation numérique n’est pas une voie royale vers la neutralité carbone

Source: The Conversation – France (in French) – By Bisrat Misganaw, Associate Professor of Strategy and Entrepreneurship, Neoma Business School

Souvent présenté comme un levier indispensable pour décarboner nos économies, le numérique est loin d’être une solution miracle. Derrière ses promesses techniques et économiques se cachent des coûts environnementaux et humains croissants. La planète ne bénéficiera pas nécessairement d’une numérisation massive qui risque, au contraire, d’aggraver notre dépendance en termes de ressources et d’énergie.


Au cours des dernières années, la transformation numérique a souvent été présentée comme nécessaire pour atteindre la neutralité carbone. Le Forum économique mondial de Davos, par exemple, estimait que le secteur des technologies numériques constitue le levier d’influence « le plus puissant pour accélérer l’action pour limiter la hausse des températures mondiales à moins de 2 °C ».

Lors de la COP29, fin 2024, la déclaration sur l’action numérique verte (Green Digital Action) affirmait
« le rôle vital des technologies numériques dans l’action climatique », tout l’enjeu étant d’en tirer parti pour atténuer le changement climatique. Mais dans le même temps, cette même déclaration « prenait note avec inquiétude des effets néfastes pour le climat dus aux […] technologies numériques et aux outils, dispositifs et infrastructures connexes ». Au final, le numérique est-il plutôt porteur de promesses ou de menaces pour l’atteinte des objectifs de neutralité carbone ? La déclaration ne le dit pas.

Dans une étude récente, nous avançons que le problème au cœur de l’idée d’un secteur numérique allié du climat repose sur plusieurs hypothèses clés, discutables à bien des égards.

Certes, il existe déjà – et existera à l’avenir – de nombreux exemples qui montrent que la numérisation peut soutenir la cause de la neutralité carbone. Par exemple, lorsqu’il s’agit de solutions qui permettent des gains d’efficacité énergétique, le pilotage de la production décentralisée d’électricité renouvelable, ou encore lorsqu’elles accélèrent les processus de recherche et développement (R&D).




À lire aussi :
Impact environnemental du numérique : l’inquiétant boom à venir


Mais l’argument selon lequel la numérisation de l’économie permettra d’atteindre la neutralité carbone repose sur quatre hypothèses implicites, selon lesquelles elle entraînerait nécessairement :

  • davantage de dématérialisation,
  • des gains d’efficacité énergétique,
  • une réduction des coûts de main-d’œuvre,
  • enfin, des décisions économiques plus respectueuses de l’environnement de la part des acteurs économiques.

Or nous montrons qu’aucune de ces hypothèses n’est réaliste.

Ne pas confondre numérisation et dématérialisation

Le lien entre numérisation et dématérialisation, souvent présenté comme allant de soi, doit être interrogé. En effet, la numérisation s’accompagne d’une dépendance aux infrastructures informatiques aux capteurs électroniques utilisés pour convertir et traiter toujours plus d’information sous forme numérique.

Cela implique de construire de nouvelles infrastructures et de nouveaux appareils informatiques. Ces derniers ont une matérialité : leur fabrication implique d’utiliser des ressources minérales limitées, en particulier des métaux rares. Ce problème est encore amplifié par la dépréciation et l’obsolescence plus rapide des appareils informatiques.

Certes, on pourrait dire que ces frais sont compensés par les avantages supplémentaires générés par les services numériques. Cependant, ces avantages ont eux-mêmes un coût pour l’environnement.




À lire aussi :
Pourquoi l’IA générative consomme-t-elle tant d’énergie ?


Cela tient d’abord à leur consommation d’énergie. Par exemple, une seule requête ChatGPT consomme entre 50 et 90 fois plus d’énergie qu’une recherche Google classique. Le fonctionnement des systèmes d’intelligence artificielle (IA) nécessite aussi de grandes quantités d’eau pour le refroidissement des infrastructures informatiques, certains modèles consommant, à large échelle, des millions de litres pendant leurs phases d’entraînement et d’utilisation. Enfin, l’essor des IA génératives pourrait faire croître la demande en cuivre d’un million de tonnes d’ici 2030.

Selon un rapport du ministère de la transition écologique, le secteur du numérique représentait 2,5 % de l’empreinte carbone annuelle de la France et 10 % de sa consommation électrique en 2020. Sans intervention, les émissions de gaz à effet de serre du secteur pourraient croître de plus de 45 % d’ici à 2030. Selon un rapport des Nations unies, en 2022, les data centers du monde entier ont consommé 460 térawattheures d’électricité, soit l’équivalent de la consommation d’électricité annuelle de la France. Il est attendu que cette consommation sera multipliée quasiment par deux en 2026 pour atteindre 1 000 térawattheures.

Les risques d’effet rebond

La promesse de gains d’efficacité énergétique dans le numérique doit également être interrogée, car ces technologies produisent des effets rebond. Les gains d’efficacité font baisser les prix, ce qui augmente la demande, augmentant la consommation d’énergie et la quantité de déchets électroniques produits. La conséquence : une pression accrue sur les limites planétaires.

Ces effets rebond peuvent être directs ou indirects. Un exemple d’effet rebond direct tient à la facilité d’usage des services numériques : en témoigne par exemple l’augmentation constante du nombre de messages en ligne, de visioconférences, de photos et de vidéos stockées sur nos téléphones et/ou dans le cloud, etc.

On peut illustrer l’idée d’effet rebond indirect ainsi : lorsque l’argent, économisé par une entreprise grâce à la réduction des déplacements professionnels (grâce aux réunions virtuelles ou au télétravail), versé sous forme d’augmentations au salarié, lui sert à acheter un billet d’avion pour partir en vacances.

Les cryptomonnaies ont des effets rebond indirects considérables en termes de consommation d’énergie, et donc d’impact climatique.
Jorge Franganillo/Flickr, CC BY-SA

Prenons enfin l’exemple des cryptomonnaies, souvent défendues pour leurs avantages en termes de décentralisation financière. Celle-ci s’accompagne d’un coût énergétique élevé : leur consommation d’électricité a dépassé celle de l’Argentine et devrait continuer à augmenter à mesure que la finance décentralisée se développe.

Moins de main-d’œuvre mais davantage d’impacts environnementaux

Le numérique est souvent vu par les décideurs comme une façon de réduire les coûts de main-d’œuvre, et cela dans la plupart des secteurs. La main-d’œuvre a un coût économique, mais elle est également la plus durable de tous les intrants :il s’agit d’une ressource abondante et renouvelable dont l’utilisation n’affecte pas directement les limites de la planète.

La numérisation du travail, si elle permet de réaliser des économies en remplaçant une partie de la main-d’œuvre humaine (et durable) par des machines gourmandes en énergie et en ressources, se fait donc au détriment de l’environnement et amoindrit la durabilité des activités économiques – et non l’inverse.

Même en considérant qu’une partie de la main-d’œuvre déplacée pourrait être absorbée par de nouveaux business models, ces derniers ne seront pas forcément plus durables que les business models d’aujourd’hui. De plus, cela ne ferait que renforcer les tendances actuelles en matière d’inégalités, qui ont des effets délétères sur la durabilité. Une neutralité carbone qui serait atteinte au prix d’un appauvrissement massif de la population et au mépris des objectifs de développement durable des Nations unies paraît inacceptable.

Enfin, l’argument selon lequel le numérique permettrait aux entreprises de prendre des décisions plus soutenables n’est pas fondé. Ces décisions sont prises en tenant d’abord compte de la maximisation des profits, des opportunités de croissance et de l’amélioration de son efficacité en interne, conformément aux structures de gouvernance en place. Les décisions en matière de numérique n’échappent pas à cette règle.

Tant que la maximisation de la valeur pour les actionnaires restera le principe directeur de la gouvernance d’entreprise, il n’y a aucune raison de s’attendre à ce que la numérisation impulsée par les entreprises privilégie le développement d’une économie neutre en carbone plutôt que les préoccupations de rentabilité. Au contraire, les technologies de l’information semblent avoir jusque-là surtout renforcé les tendances actuelles.

Se méfier du solutionnisme technologique

Les arguments qui précèdent montre que la numérisation en soi ne soutient pas toujours la neutralité carbone. Comme toutes les innovations majeures, elle permet d’élargir l’éventail des possibles au plan économique. Cela signifie qu’il existe des opportunités significatives d’investissements durables et transformateurs.

Mais il convient de se méfier des solutions purement technologiques aux problèmes de durabilité, même si elles sont réconfortantes car elles n’impliquent aucun changement réel du statu quo. Ce faux sentiment de sécurité est pourtant précisément ce qui nous a conduits collectivement à épuiser les limites planétaires.

Le numérique peut soutenir la transition verte, mais, pour que ses opportunités puissent être exploitées, un véritable changement dans les processus décisionnels doit s’opérer. Pour l’heure, les États et quelques entreprises restent les seuls niveaux auxquels ces décisions sont prises. En d’autres termes, nous avons besoin d’un déclic collectif pour mieux appréhender les liens entre technologie, énergie et société, sans quoi atteindre la neutralité carbone grâce au numérique ne restera qu’un vœu pieux.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. Pourquoi la transformation numérique n’est pas une voie royale vers la neutralité carbone – https://theconversation.com/pourquoi-la-transformation-numerique-nest-pas-une-voie-royale-vers-la-neutralite-carbone-269636

L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt

Source: The Conversation – France in French (2) – By Denis Trystram, Professeur des universités en informatique, Université Grenoble Alpes (UGA)

Circulez, il n’y a rien à voir ? Les estimations du bilan environnemental de l’intelligence artificielle générative, comme celles réalisées à l’été 2025 par Google sur son IA Gemini, semblent rassurantes : seulement 0,003 g de CO2 et cinq gouttes d’eau par « prompt ». Des résultats qui dépendent en réalité beaucoup des choix méthodologiques réalisés, alors que de telles études sont le plus souvent menées en interne et manquent de transparence. Le problème est que ces chiffres font de plus en plus souvent figure d’argument marketing pour inciter à l’utilisation de l’IA générative, tout en ignorant le risque bien réel d’effet rebond lié à l’explosion des usages.


Depuis la sortie de ChatGPT fin 2022, les IA génératives ont le vent en poupe. En juillet 2025, OpenAI annonçait que ChatGPT recevait 18 milliards de « prompts » (instructions écrites par les utilisateurs) par semaine, pour 700 millions d’utilisateurs – soit 10 % de la population mondiale.

Aujourd’hui, la ruée vers ces outils est mondiale : tous les acteurs de la Big Tech développent désormais leurs propres modèles d’IA générative, principalement aux États-Unis et en Chine. En Europe, le Français Mistral, qui produit l’assistant Le Chat, a récemment battu les records avec une capitalisation proche de 12 milliards d’euros. Chacun de ces modèles s’inscrit dans un environnement géopolitique donné, avec des choix technologiques parfois différents. Mais tous ont une empreinte écologique considérable qui continue d’augmenter de façon exponentielle, portée par la démultiplication des usages. Certains experts, dont ceux du think tank spécialisé The Shift Project, sonnent l’alerte : cette croissance n’est pas soutenable.




À lire aussi :
L’IA peut-elle vraiment être frugale ?


Or, tous les acteurs du domaine – y compris les consommateurs – sont aujourd’hui bien conscients que du coût environnemental qui accompagne les usages liés au numérique, mais pas forcément des chiffres que cela représente.

Poussés par de multiples raisons (obligations réglementaires, marketing, parfois par conscience environnementale), plusieurs des grands acteurs de la tech ont récemment réalisé l’analyse de cycle de vie (ACV, méthodologie permettant d’évaluer l’impact environnemental global d’un produit ou service) de leurs modèles.

Fin août 2025, Google a publié la sienne pour quantifier les impacts de son modèle Gemini. Que valent ces estimations, et peut-on s’y fier ?

Une empreinte carbone étonnement basse

Un modèle d’IA générative, pour fonctionner, doit d’abord être « entraîné » à partir d’une grande quantité d’exemples écrits. Pour mesurer l’électricité consommée par un « prompt », Google s’est donc concentré sur la phase d’utilisation – et non pas d’entraînement – de son IA Gemini. Selon ses propres calculs, Google annonce donc qu’un prompt ne consommerait que 0,24 wattheure (Wh) en moyenne – c’est très faible : environ une minute de consommation d’une ampoule électrique standard de 15 watts.

Comment les auteurs sont-ils arrivés à ce chiffre, significativement plus faible que dans les autres études déjà réalisées à ce sujet, comme celle menée par Mistral IA en juillet 2025 ?

La première raison tient à ce que Google mesure réellement. On apprend par exemple dans le rapport que l’électricité consommée par un prompt est utilisée pour 58 % par des processeurs spécialisés pour l’IA (l’unité de traitement graphique, ou GPU, et le circuit intégré spécifique Tensor Processing Unit, ou TPU), 25 % par des processeurs classiques et à hauteur d’environ 10 % par les processeurs en veille, et les 7 % restants pour le refroidissement des serveurs et le stockage de données.

Autrement dit, Google ne tient ici compte que de l’électricité consommée par ses propres data centers, et pas de celle consommée par les terminaux et les routeurs des utilisateurs.

Par ailleurs, aucune information n’est donnée sur le nombre d’utilisateurs ou le nombre de requêtes prises en compte dans l’étude, ce qui questionne sa crédibilité. Dans ces conditions, impossible de savoir comment le comportement des utilisateurs peut affecter l’impact environnemental du modèle.




À lire aussi :
Impact environnemental du numérique : l’inquiétant boom à venir


Google a racheté en 2024 l’équivalent de la production d’électricité annuelle de l’Irlande

La seconde raison tient à la façon de convertir l’énergie électrique consommée en équivalent CO2. Elle dépend du mix électrique de l’endroit où l’électricité est consommée, tant du côté des data centers que des terminaux des utilisateurs. Ici, on l’a vu, Google ne s’intéresse qu’à ses propres data centers.

Depuis longtemps, Google a misé sur l’optimisation énergétique, en se tournant vers des sources décarbonées ou renouvelables pour ses centres de données répartis partout dans le monde. Selon son dernier rapport environnemental, l’effort semble porter ses fruits, avec une diminution de 12 % des émissions en un an, alors que la demande a augmenté de 27 % sur la même période. Les besoins sont colossaux : en 2024, Google a consommé, pour ses infrastructures de calcul, 32 térawattsheures (TWh), soit l’équivalent de la production d’électricité annuelle de l’Irlande.




À lire aussi :
Un data center près de chez soi, bonne ou mauvaise nouvelle ?


De fait, l’entreprise a signé 60 contrats exclusifs de fourniture en électricité à long terme en 2024, pour un total de 170 depuis 2010. Compte tenu de l’ampleur des opérations de Google, le fait d’avoir des contrats d’électricité exclusifs à long terme compromet la décarbonation dans d’autres secteurs. Par exemple, l’électricité à faibles émissions qui alimente les prompts pourrait être utilisée pour le chauffage, secteur qui dépend encore fortement des combustibles fossiles.

Dans certains cas, ces contrats impliquent la construction de nouvelles infrastructures de production d’énergie. Or, même pour la production d’énergie renouvelable décarbonée, leur bilan environnemental n’est pas entièrement neutre : par exemple, l’impact associé à la fabrication de panneaux photovoltaïques est compris entre 14 gCO2eq et 73 gCO2eq/kWh, ce que Google ne prend pas en compte dans ses calculs.

Enfin, de nombreux services de Google font appel à de la « colocation » de serveurs dans des data centers qui ne sont pas nécessairement décarbonés, ce qui n’est pas non plus pris en compte dans l’étude.

Autrement dit, les choix méthodologiques réalisés pour l’étude ont contribué à minimiser l’ampleur des chiffres.

Cinq gouttes d’eau par prompt, mais 12 000 piscines olympiques au total

La consommation d’eau douce est de plus en plus fréquemment prise en compte dans les rapports environnementaux liés au numérique. Et pour cause : il s’agit d’une ressource précieuse, constitutive d’une limite planétaire récemment franchie.

L’étude de Google estime que sa consommation d’eau pour Gemini est de 0,26 ml – soit cinq gouttes d’eau – par prompt. Un chiffre qui semble dérisoire, ramené à l’échelle d’un prompt, mais les petits ruisseaux font les grandes rivières : il faut le mettre en perspective avec l’explosion des usages de l’IA.

Globalement, Google a consommé environ 8 100 millions de gallons (environ 30 millions de mètres cubes, l’équivalent de quelque 12 000 piscines olympiques) en 2024, avec une augmentation de 28 % par rapport à 2023.

Mais là aussi, le diable est dans les détails : le rapport de Google ne comptabilise que l’eau consommée pour refroidir les serveurs (selon un principe très similaire à la façon dont nous nous rafraîchissons lorsque la sueur s’évapore de notre corps). Le rapport exclut de fait la consommation d’eau liée à la production d’électricité et à la fabrication des serveurs et autres composants informatiques, qui sont pourtant prises en compte pour le calcul de son empreinte carbone, comme on l’a vu plus haut. En conséquence, les indicateurs d’impact environnemental (carbone, eau…) n’ont pas tous le même périmètre, ce qui complique leur interprétation.




À lire aussi :
Les métaux de nos objets connectés, face cachée de l’impact environnemental du numérique


Des études encore trop opaques

Comme la plupart des études sur le sujet, celle de Google a été menée en interne. Si on comprend l’enjeu de secret industriel, un tel manque de transparence et d’expertise indépendante pose la question de sa légitimité et surtout de sa crédibilité. On peut néanmoins chercher des points de comparaisons avec d’autres IA, par exemple à travers les éléments présentés par Mistral IA en juillet 2025 sur les impacts environnementaux associés au cycle de vie de son modèle Mistral Large 2, une première.

Cette étude a été menée en collaboration avec un acteur français reconnu de l’analyse du cycle de vie (ACV), Carbone4, avec le soutien de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe), ce qui est un élément de fiabilité. Les résultats sont les suivants.

Pendant les dix-huit mois de durée de vie totale du modèle, environ 20 000 tonnes équivalent CO2 ont été émises, 281 000 m3 d’eau consommée et 660 kg équivalent antimoine (indicateur qui prend en compte l’épuisement des matières premières minérales métalliques).

Résultats présentés par Mistral à l’été 2025.
Mistral AI

Mistral attire l’attention sur le fait que l’utilisation du modèle (inférence) a des effets qu’ils jugent « marginaux », si on considère un prompt moyen utilisant 400 « tokens » (unités de traitement corrélées à la taille du texte en sortie) : ce prompt correspond à l’émission de 1,14 g équivalent CO2, de 50 ml d’eau et 0,5 mg équivalent antimoine. Des chiffres plus élevés que ceux avancés par Google, obtenus, comme on l’a vu, grâce à une méthodologie avantageuse. De plus, Google s’est basé dans son étude sur un prompt « médian » sans donner davantage de détails statistiques, qui seraient pourtant bienvenus.

En réalité, l’une des principales motivations, que cela soit celles de Google ou de Mistral, derrière ce type d’étude reste d’ordre marketing : il s’agit de rassurer sur l’impact environnemental (ce qu’on pourrait qualifier de « greenwashing ») de l’IA pour pousser à la consommation. Ne parler que de l’impact venant des prompts des utilisateurs fait également perdre de vue la vision globale des coûts (par exemple, ceux liés à l’entraînement des modèles).




À lire aussi :
Comment rendre l’électronique plus soutenable ?


Reconnaissons que le principe d’effectuer des études d’impacts est positif. Mais l’opacité de ces études, même lorsqu’elles ont le mérite d’exister, doit être interrogée. Car, à ce jour, Mistral pas plus que Google n’ont pas dévoilé tous les détails des méthodologies utilisées, les études ayant été menées en interne. Or, il faudrait pouvoir disposer d’un référentiel commun qui permettrait de clarifier ce qui doit être pris en compte dans l’analyse complète du cycle de vie (ACV) d’un modèle d’IA. Ceci permettrait de réellement comparer les résultats d’un modèle à l’autre et de limiter les effets marketing.

Une des limites tient probablement à la complexité des IA génératives. Quelle part de l’empreinte environnementale peut-on rattacher à l’utilisation du smartphone ou de l’ordinateur pour le prompt ? Les modèles permettant le fine-tuning pour s’adapter à l’utilisateur consomment-ils plus ?

La plupart des études sur l’empreinte environnementale des IA génératives les considèrent comme des systèmes fermés, ce qui empêche d’aborder la question pourtant cruciale des effets rebonds induits par ces nouvelles technologies. Cela empêche de voir l’augmentation vertigineuse de nos usages de l’IA, en résumant le problème au coût environnemental d’un seul prompt.

The Conversation

Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.

ref. L’IA générative est-elle soutenable ? Le vrai coût écologique d’un prompt – https://theconversation.com/lia-generative-est-elle-soutenable-le-vrai-cout-ecologique-dun-prompt-269432

COP30: ocho razones económicas que frenan a los países a la hora de asumir compromisos climáticos ambiciosos

Source: The Conversation – (in Spanish) – By José Alba Alonso, Profesor Titular de Economía Aplicada, Universidad de Oviedo

Foto de los líderes mundiales en la Cumbre del Clima (COP30) de Brasil. UN Climate Change – Zo Guimarães/Flickr, CC BY-NC-SA

El cambio climático es uno de los mayores retos de la sociedad. Sin embargo, a pesar de que se han sucedido varias cumbres mundiales para afrontarlo, como la que se está celebrando estos días en Brasil (la COP30, todavía no se han tomado las medidas necesarias para mitigar su avance con la suficiente rapidez y efectividad.

Si los Estados conocen los cambios que deberían llevar a cabo y la gravedad e implicaciones de no hacerlo, ¿por qué los compromisos que han llegado a alcanzar dichas reuniones son tan exiguos?

En la COP del año pasado, el gran logro fue consignar menos de tres milésimas del PIB mundial para ayudar a los países en desarrollo (300 000 millones de dólares anuales) en la lucha contra el cambio climático. En el 2025, se plantean 30 objetivos clave.

Gran parte de la contradicción entre lo que los negociadores piensan que es necesario y lo que finalmente rubrican no tiene nada que ver con la ciencia climática, sino con cuestiones políticas y económicas. Estas son algunas de ellas:

1. Asimetría entre los costes y los beneficios

Existe una clara asimetría entre los compromisos que cada Estado habría de asumir y los beneficios que podría obtener. Aplicar medidas ambientales que limitan la producción o aumentan los costes no garantiza, en modo alguno, que un país vaya a obtener unos réditos económicos equivalentes a corto plazo.

El caso de la Unión Europea, quien más ha avanzado en esos compromisos, es paradigmático: diversos actores la acusan de estar autopenalizándose y perdiendo competitividad frente a terceros al asumir mayores compromisos que otros.




Leer más:
Justicia ambiental en Europa: ¿se debería compensar a los países del sur por su vulnerabilidad climática?


2. Diferencias en la capacidad de influencia

Existe un conflicto entre los intereses de diferentes actores con distinta capacidad de influencia. Por una parte, existen intereses contra la aplicación de políticas que modifiquen el escenario productivo, mientras que, por otra, hay gran cantidad de individuos y organizaciones partidarios de actuar frente al cambio climático.

La balanza se inclina hacia quienes defienden algo muy propio y a lo que dan prioridad. Por ejemplo, las “cuatro grandes” petroleras” ejercen su influencia continuamente y con grandes medios (investigación, comunicación, lobbying…). Mientras tanto, millones de personas con gran interés por el clima difícilmente pueden influir en las COP. Sólo lo hacen débilmente, representados por los grupos medioambientalistas, que tienen gran voluntad, pero también mucha dificultad para lograr imponer acuerdos.

3. Impopularidad de las decisiones

Los plazos para el ejercicio político son limitados en el tiempo. Quienes pueden tomar decisiones para obtener un beneficio social diferido ven cómo la opinión pública juzga severamente las restricciones aplicadas. Conscientes de la impopularidad de medidas que afectan, finalmente, a la vida cotidiana (impuestos, cambios de vehículos, exigencias en edificación, obligaciones para agricultores, etc.) muchos decisores evitan, por impopulares, decisiones de calado.




Leer más:
¿Son los impuestos ambientales de derechas o de izquierdas?


4. Diferencias entre países ricos y pobres

Hay situaciones y argumentos de todo tipo para defender diferentes posturas frente al reparto de los esfuerzos necesarios. Si partimos de una cantidad máxima de emisiones “aceptable”, repartir esa potencial contaminación entre los Estados lleva a enfrentamientos.

Los países más ricos contaminan más, y plantean reducciones sobre la cantidad de emisiones que vienen realizando. Los más pobres argumentan que ellos no han provocado el problema y que ahora es su turno de crecer como hicieron otros durante mucho tiempo. Esto llevaría a que países con baja renta dispusiesen de mayores cuotas de contaminación que quienes ya crecieron sin restricciones, algo que no aceptan los países desarrollados.




Leer más:
Países desarrollados y en vías de desarrollo: ¿diferentes obligaciones ante la acción climática?


5. Medidas costosas

Es necesario aplicar las mejores alternativas para minimizar las emisiones perniciosas, pero eso entraña un coste. ¿Cómo afrontar ese incremento de presupuesto para infinidad de complejos industriales, medios de transporte, sistemas de acondicionamiento de la temperatura, etc.?

En muchas ocasiones, los Estados ricos han planteado canalizar financiación para usar la mejor tecnología, pero la concreción presupuestaria ha sido insuficiente. Por otro lado, no es fácil que los países con menos recursos estén dispuestos a aceptar compromisos de modernización que pueden suponerles un grave quebranto directo.

6. Dudas sobre la efectividad de las políticas

Ha empezado a surgir una seria duda sobre la efectividad de las medidas que pudieran tomarse. El incremento de temperatura que se ha producido puede haber sobrepasado el margen en el que cabría maniobrar. Pero también constituyen un lastre las experiencias fallidas, o que se perciben como tales.

Hay un enorme debate en la Unión Europea sobre el coche eléctrico, por ejemplo. También se ha visto cómo imponer penalizaciones al transporte marítimo por sus emisiones ha supuesto que muchos buques fondeen ahora primero en el norte de África, desde donde vienen después, para minimizar el recorrido por el que se les imponen pagos ambientales.

7. Falta de perspectiva global en las cumbres

Podemos subsumir muchos de los puntos anteriores en el talante y la técnica de quienes participan en las conferencias climáticas. La propia dinámica de la negociación lleva a que cada cual intente jugar sus bazas en la forma que más le favorezca, ganando ventaja en función de las percepciones respecto al posicionamiento de otros interlocutores. Dicha actitud propicia la pérdida de una perspectiva global y hace aún más complejo cualquier acuerdo.




Leer más:
Por qué las conferencias del clima no son reuniones científicas, sino políticas


8. Discontinuidad de los gobiernos

Finalmente, cabe glosar multitud de cuestiones que no están tan directamente relacionadas con las negociaciones, pero que configuran un entorno del que no se pueden sustraer quienes representan a los Estados.

La discontinuidad en los Gobiernos facilita que se interrumpan los acuerdos que supongan algo nuevo. En tal sentido, fue determinante la investidura de Donald Trump en Estados unidos a comienzos del año 2017, quebrando el mayor progreso logrado hasta entonces.

Además, la percepción social de numerosas consecuencias indeseadas, el desplazamiento de las empresas menos eficientes en la producción (que no serían capaces de competir en el nuevo escenario), la necesidad de replantear todo un modelo vital (energía, ordenación del territorio, transportes, materiales…), así como los sistemas productivos y las pautas de consumo, contribuyen a forjar un ánimo continuista.

¿Será diferente la COP30?

El clima no está mereciendo el debido cuidado por el conjunto de los Estados, cuyos Gobiernos actúan condicionados por las cuestiones apuntadas. Además, no existe una organización internacional que pueda asumir el liderazgo. Si una parte de los países no aplicase medidas, podrían atraer las actividades más perturbadoras, debilitando el resultado total. Como excepción a la desidia, la Unión Europea ha intentado liderar el proceso, pero no ha logrado que otros la sigan.

Esperemos que la COP30 tenga mejores resultados que los episodios precedentes. La sociedad ya es consciente de algunas consecuencias de la inacción y esto podría suavizar las aristas de los argumentos en los que he condensado el origen de las posposiciones. Pero no debemos ignorar la realidad socioeconómica y política, que influye decisivamente.

El desafío es ganar perspectiva, tener una visión holística y comprender la interdependencia –entre el medio ambiente y la economía, los países del norte y los del sur, los consumidores y los productores, etc.– para salvar las dificultades.

The Conversation

José Alba Alonso es Vicepresidente del Consejo Asturiano del Movimiento Europeo y miembro de la Asociación Asturiana de Amigos de la Naturaleza (en su día fue miembro del Comité Científico de Friends of Earth España)

ref. COP30: ocho razones económicas que frenan a los países a la hora de asumir compromisos climáticos ambiciosos – https://theconversation.com/cop30-ocho-razones-economicas-que-frenan-a-los-paises-a-la-hora-de-asumir-compromisos-climaticos-ambiciosos-269936

Agricultural exports from Africa are not doing well. Four ways to change that

Source: The Conversation – Africa – By Lilac Nachum, Visiting professor, Strathmore University

Africa is the world’s most endowed continent in agricultural potential, yet it remains a marginal player in global agribusiness. This paradox lies at the heart of Africa’s development challenge.

Africa’s land accounts for nearly half of the global total. Most of it can be used for growing crops. It is also largely unprotected, and not forested, with low population density. The continent’s climate supports the growth of 80% of the foods consumed globally. Economic theory would predict that these conditions would lead to strong export performance. Yet Africa’s share of global agricultural exports is the lowest worldwide. It fell from about 8% in 1960 to 4% in the early 2020s, according to World Bank data.

Policymakers have largely neglected agribusiness export performance, with a few exceptions, such as Kenya and Ghana. Agribusiness refers to the entire range of activities in producing, processing, distributing and marketing agricultural products.

Despite being the largest contributor to GDP and employment, agribusiness receives a disproportionately small share of government spending (on average 4%), far below its economic significance. There are variations across the continent, ranging from 8% and 7% respectively in Mali and South Sudan to less than 3% in Kenya and Ghana. Many governments have instead chosen manufacturing as the pathway to global integration.

Based on insights from over three decades of research, consulting and teaching on global markets and development, I argue that agriculture could lead Africa’s integration into the world economy. Four reforms would be necessary: improving access to capital; documenting land; designing targeted cross-border policies; and strategically employing trade policy.

In these ways, Africa could use its natural assets to secure broad-based economic growth and a stronger position in global value chains.

Four reforms to support agribusiness

1. Improve access to capital

Capital scarcity remains the most serious constraint on African agribusiness. Financial institutions are reluctant to lend due to high risk, long investment horizons, poor collateral, and profits being vulnerable to price shocks. The World Bank estimates that agriculture receives only about 1% of commercial lending despite contributing 25%-40% of GDP (up to 6% in Nigeria and Ethiopia). Lending rates are often double the economy-wide average, as UN Food and Agriculture Organization data show for Uganda.

Governments can help close this financing gap. In 2024, Kenya allocated US$7.7 million for developing its tea production. Domestic investment can generate savings by cutting food import bills. Nigeria’s Tomato Jos project, for instance, reduced annual tomato paste imports by US$360 million.

Governments should expand public lending while also enabling private sector participation through risk-sharing mechanisms. South Africa’s Khula Credit Guarantee Scheme illustrates how government-backed guarantees can unlock finance for collateral-poor farmers. This model has been reproduced in Kenya and Tanzania with EU and development bank support.

Private finance sources such as venture capital have also grown rapidly. In 2024, Nigeria and South Africa each attracted about US$500 million in venture funding. Funded African startups have grown six times faster than the global average. Micro-lending platforms now exceed US$8.5 billion in loans.

2. Document the land

Over 80% of Africa’s arable land is undocumented and governed by customary tenure systems poorly integrated into formal law. Weak land administration deters investment and limits land’s use as collateral. Transfers cost twice as much and take twice as long as in OECD countries (the world’s 38 most developed countries). That constrains access to credit and economies of scale needed for exports.

Several land tenure reforms introduced in the last decade demonstrate the benefits of formalisation. Ethiopia issued certificates to 20 million smallholders, boosting rental activity. Malawi’s redistribution of 15,000 hectares raised household incomes by 40%. In Mozambique, Uganda and Liberia, governments legally recognised customary institutions to facilitate formal land contracts. Rwanda’s comprehensive land mapping further improved transparency and investment incentives.

3. Design focused cross-border policies

Regional and global markets need different strategies for export success. Intra-African trade benefits from proximity and regulatory harmonisation. The East African Community’s trade facilitation measures increased intra-regional dairy exports 65-fold within a decade.

Most African agricultural exports, however, go to non-African markets, requiring infrastructure and logistics investments to ensure speed and quality. Senegal increased exports by 20% annually after investing in high-speed shipping, while Ethiopia’s flower growing boom owes much to its air transport and cold-chain systems.

Policies must also be crop specific. Kenya’s targeted avocado export strategy transformed it into Africa’s largest exporter, with double-digit annual growth. Mali’s mango export policy built a competitive value chain serving European markets.

4. Use trade policy as a tool for upgrading

African exporters primarily sell raw, low-value materials. Nigeria, a top tomato producer, exports nearly all production unprocessed – and imports paste. Less than 5% of Kenyan tea, the nation’s leading export, is branded. Trade policy can reverse this imbalance by encouraging domestic processing.

The East African Community’s differentiated tariff structure successfully encouraged value addition by lowering duties on intermediate goods while protecting local food processing. Governments could similarly tax or restrict unprocessed exports to motivate upgrading. At the same time, it’s necessary to invest in processing capacity. Several countries, including Botswana, Uganda and Côte d’Ivoire, have attempted raw export bans with limited success because the enabling conditions are missing.

A decisive shift

Africa’s agribusiness sector embodies the continent’s untapped potential for structural transformation. With abundant land, favourable climate and rapidly growing domestic demand, Africa possesses clear comparative advantages. Africa is also becoming more capable of addressing the challenges that have arrested the development of the agribusiness sector in the past. This article develops a policy agenda designed to reverse Africa’s declining share of world agricultural trade by amending institutional failures that have constrained competitiveness.

This agenda is based on enhancing access to finance, formalising land rights, implementing targeted cross-border initiatives, and using trade policy for upgrading. A decisive policy shift towards an agriculture-led development agenda is essential. Implementing this agenda will enable African countries to improve their economic position at home and in the world.

The Conversation

Lilac Nachum does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.

ref. Agricultural exports from Africa are not doing well. Four ways to change that – https://theconversation.com/agricultural-exports-from-africa-are-not-doing-well-four-ways-to-change-that-268780

¿Cómo deciden los pequeños inversores? La sabiduría colectiva en el ‘crowdfunding’

Source: The Conversation – (in Spanish) – By Gabriel Rodríguez-Garnica, Profesor de Finanzas, FinTech, Blockchain y Criptoactivos, Universidad Pontificia Comillas

Prostock-studio/Shutterstock

En la última década, las plataformas de crowdfunding (micromecenazgo) –como Kickstarter, Indiegogo, Verkami o Ulule– se han convertido en uno de los motores más visibles de la financiación colectiva, ayudando a pequeños emprendedores con proyectos innovadores a conseguir financiación por casi 10 000 millones de dólares.

Desde relojes inteligentes hasta cafeteras portátiles o videojuegos, millones de personas han apoyado ideas creativas aportando pequeñas sumas de dinero a cambio de una recompensa futura (compra del producto con descuento, versiones exclusivas o tempranas, merchandising, eventos, talleres, etc.). Pero detrás de este fenómeno aparentemente espontáneo se esconde una pregunta fascinante: ¿cómo decide la multitud (los inversores y financiadores) qué proyectos apoyar?

En un estudio académico publicado en verano de 2025 ofrecemos una respuesta basada en la evidencia. Analizando los datos diarios de casi 4 000 proyectos de Kickstarter encontramos un patrón de comportamiento colectivo que combina dos fuerzas:

  1. La señalización: la información que transmite el creador.

  2. El comportamiento de manada (herding): la imitación a los primeros financiadores por parte de los posteriores.

Lejos de ser irracional, esta combinación genera lo que en economía se denomina una cascada informativa: un proceso en el que las decisiones individuales, observadas y acumuladas, transmiten información útil al resto del mercado. En otras palabras, la sabiduría surge dentro de la multitud… si las condiciones son las adecuadas.

La curva de comportamiento: del análisis a la imitación

Kickstarter es un laboratorio perfecto para estudiar cómo la gente toma decisiones en entornos de incertidumbre. A diferencia del crowdfunding de capital, donde los inversores compran participaciones de una empresa y los expertos financieros juegan un papel clave, el crowdfunding basado en recompensas carece de expertos identificables.

Los financiadores (backers) son, en su mayoría, consumidores normales que aportan pequeñas cantidades a cambio de recibir el producto cuando se fabrique. Esto plantea un problema: ¿cómo distinguir los buenos proyectos de los malos si en estos mercados apenas hay analistas o inversores profesionales que filtren la información?

El resultado más revelador del estudio es la existencia de dos fases claramente diferenciadas en la evolución de las campañas de Kickstarter: la fase de señalización y la fase de comportamiento de manada.

La fase de señalización

Durante los primeros días, un grupo reducido de patrocinadores (entre el 5 y el 10 % del total) se comporta de manera racional e informada. Estos financiadores tempranos no actúan por impulso, sino basándose en señales observables de calidad, como la claridad y extensión de la descripción del proyecto, la experiencia previa del emprendedor, la existencia de actualizaciones tempranas o enlaces externos (páginas web, redes sociales), y el uso de un tono positivo y transparente en la descripción de los riesgos del proyecto.

En términos prácticos, estos primeros patrocinadores “leen la letra pequeña”, analizan la información y deciden si vale la pena confiar en el creador del proyecto: el emprendedor.

Nuestro estudio muestra que los proyectos mejor presentados logran alcanzar rápidamente el 10 % de su objetivo de financiación, lo que constituye una señal pública de credibilidad.

La fase de comportamiento de manada

A medida que avanza la campaña, la lógica cambia. Los patrocinadores tardíos –la gran mayoría– dejan de basar sus decisiones en la información directa del proyecto y comienzan a imitar el comportamiento de los primeros.

Si una campaña avanza rápido en sus primeros días, esa velocidad genera confianza y atrae nuevas aportaciones. Si, por el contrario, tarda demasiado en despegar, el efecto es el opuesto.

El estudio demuestra que existe una relación directa entre el tiempo en que el proyecto tarda en alcanzar el 10 % inicial y la velocidad de financiación en las fases posteriores: cuanto más rápido se recauda al principio, más rápido se financia todo el proyecto.

Este patrón genera una curva característica: un inicio muy dinámico (la señalización), seguido de una aceleración sostenida impulsada por el comportamiento de manada. En los proyectos exitosos, la curva de financiación tiene forma convexa –una subida creciente–. En los fracasados, la curva es plana o decreciente desde el inicio.

¿Sabiduría o contagio?

Podría pensarse que este comportamiento colectivo es simplemente una forma de contagio emocional. Sin embargo, el comportamiento de manada que observamos en Kickstarter no es irracional, sino el resultado de un aprendizaje social eficiente, conocido como “la sabiduría de la multitud”, que hace que los patrocinadores se autoseleccionen:

  • Los que tienen más conocimientos sobre el producto (por ejemplo, diseñadores que apoyan un nuevo dispositivo) tienden a ser patrocinadores tempranos, capaces de analizar la calidad del proyecto y del emprendedor.

  • Los menos informados prefieren esperar y observar qué hacen los primeros antes de decidir.

Esa autoselección produce una cascada informativa positiva, donde las primeras decisiones contienen información útil que se transmite al resto. Conforme la campaña avanza, la información transmitida por el comportamiento de los patrocinadores tempranos se vuelve más fuerte. Es decir, la manada sustituye a la señalización de la calidad, pero no la destruye sino que la complementa.

¿Por qué la cascada informativa es una buena noticia?

La multitud aprende colectivamente. Los patrocinadores más informados enseñan con sus decisiones a los menos informados y el resultado es que la asignación de fondos termina siendo, en promedio, más eficiente de lo que cabría esperar en un mercado sin supervisión profesional.

Este mecanismo permite compensar la falta de expertos y reducir los problemas de información asimétrica que suelen limitar la financiación de proyectos creativos.

En conclusión, la multitud, bien guiada, puede ser sabia.

Implicaciones directas para los emprendedores

Las dos fuerzas que intervienen en esta toma de decisiones, señalización y comportamiento de manada hacen del crowdfunding una herramienta muy atractiva para los emprendedores con ideas creativas, ya que aquellos proyectos buenos consiguen el 100 % de la financiación en apenas días.

La clave está en la calidad de las señales iniciales y en la capacidad de las plataformas para hacer visible la información sobre el comportamiento temprano de los financiadores. Las campañas con mejor diseño y comunicación inicial en crowdfunding atraen a los patrocinadores informados, que actúan como catalizadores del éxito.

Es crucial que el emprendedor publique información transparente y señales de compromiso (por ejemplo, actualizaciones tempranas, prototipos o vídeos claros).

La atención debe centrarse en los primeros días, porque la financiación temprana genera un efecto “bola de nieve” que determina el resultado final.

Implicaciones para los reguladores

Al contrario de lo que algunos temen, la evidencia sugiere que los mercados de crowdfunding no están dominados por el fraude o la irracionalidad, sino que tienden a autorregularse mediante el aprendizaje social.

Por lo tanto, el riesgo de fraude es bajo mientras que una regulación excesiva podría sofocar la innovación de los creadores y la participación de los financiadores.

The Conversation

Gabriel Rodríguez-Garnica no recibe salario, ni ejerce labores de consultoría, ni posee acciones, ni recibe financiación de ninguna compañía u organización que pueda obtener beneficio de este artículo, y ha declarado carecer de vínculos relevantes más allá del cargo académico citado.

ref. ¿Cómo deciden los pequeños inversores? La sabiduría colectiva en el ‘crowdfunding’ – https://theconversation.com/como-deciden-los-pequenos-inversores-la-sabiduria-colectiva-en-el-crowdfunding-267513