Source: The Conversation – Canada – By Chris Houser, Professor in Department of Earth and Environmental Science, and Dean of Science, University of Waterloo
Between 2010 and 2017, there were approximately 50 drowning fatalities each year associated with rough surf and strong currents in the Great Lakes.
Rip currents — commonly referred to as rips or colloquially as rip tides — are driven by the breaking of waves. These currents extend away from the shoreline and can flow at speeds easily capable of carrying swimmers far from the beach.
Structural rips are common throughout the Great Lakes (Grand Haven on the eastern shore of Lake Michigan, for example) and develop when groynes, jetties and rock structures deflect the alongshore current offshore, beyond the breaking waves. Depending on the waves and the structure, a shadow rip can also develop on the other side of the groyne or jetty.
Rips can also develop anywhere that variations in the bathymetry (the topography of the sand underwater) — such as nearshore bars — causes wave-breaking to vary along the beach, which makes the water thrown landward by the breaking waves return offshore as a concentrated flow at the water’s surface. These are known as channel or bathymetric rips and are they can form along sand beaches in the Great Lakes.
While it can be difficult to spot a channel rip, they can be identified by an area of relatively calm water between breaking waves, a patch of darker water or the offshore flow of water, sediment and debris.
A person caught in a rip is transported away from shore into deeper water, but they are not pulled under the water. If they are a weak swimmer or try to fight the current, they may panic and fail to find a way out of the rip and back to shore before submerging.
Rip current hazards
Most rip fatalities occur on unsupervised beaches or on supervised beaches when and where lifeguards are not present. While many popular beaches near large urban centres have lifeguards, many beaches don’t. Along just the east coast of Lake Huron, there are more than 40 public beaches, including Goderich, Bayfield, Southampton and Sauble Beach, but only two have lifeguard programs (Sarnia and Grand Bend).
Recent findings from a popular beach on Lake Huron suggest that those with less experience at the beach tend to make decisions of convenience rather than based on beach safety. Residents with greater knowledge of the local hazards tend to avoid swimming near where the rip can develop.
But even when people are aware of rip currents and other beach hazards, they may not make the right decisions. Despite the presence of warnings, people’s actions are greatly influenced by the behaviour of others, peer pressure and group-think. The social cost of not entering the water with the group may appear to outweigh the risk posed by entering the water.
Rip channel and current on Lake Huron. (Chris Houser)
The behaviour of beach users is affected by confirmation bias, a cognitive shortcut where a person selectively pays attention to evidence confirming their pre-existing beliefs and ignores evidence to the contrary. When someone enters the water and does not encounter strong waves or currents, they’re more likely to engage in risky behaviour on their next visit to that beach or a similar beach.
In the United States, the National Oceanographic and Atmospheric Administration runs programs designed to educate beach users about surf and rip hazards. But Canada hasn’t implemented a national beach safety strategy.
Education about rips and dangerous surf falls on the shoulders of advocates, many of whom have been impacted by a drowning in the Great Lakes. The Great Lakes Surf Rescue Project has been tracking and educating school and community groups about rip currents and rough surf in the Great Lakes since 2010.
Several new advocacy groups have started in recent years, including Kincardine Beach Safety on Lake Huron and the Rip Current Information Project on Lake Erie. Given that there is limited public interest in surf-related drownings and limited media coverage, these advocacy groups are helping to increase awareness of rip currents and rough surf across the Great Lakes.
To ensure a safe trip to the beach, beachgoers should seek out more information about rip currents and other surf hazards in the Great Lakes.
Who said that an organization’s main resource and true competitive advantage lies in its employees, their talent or their motivation? After all, maybe your real goal is to empty out your offices, permanently discourage your staff and methodically sabotage your human capital.
If that’s the case, research in performance management offers everything you need.
Originally rooted in early 20th-century rationalization methods, performance management has become a cornerstone of modern management. It has evolved to adapt to contemporary HR needs, focusing more on employee development, engagement and strategic alignment. In theory, it should help guide team efforts, clarify expectations and support individual development. But if poorly implemented, it can become a powerful tool to demotivate, exhaust and push out your most valuable employees.
Here’s how to scare off your best talent. Although the following guidelines are meant to be taken tongue-in-cheek, they remain active in the daily work of some managers.
Management by ‘vague’ objectives
Start by setting vague, unrealistic or contradictory goals. Above all, avoid giving goals meaning, linking them to a clear strategy or backing them with appropriate resources. In short, embrace the “real” SMART goals: stressful, arbitrary, ambiguous, repetitive, and totally disconnected from the field!
According to research in organizational psychology, this approach guarantees anxiety, confusion and disengagement among your teams, significantly increasing their intention to leave the company.
Silence Is Golden
Avoid all forms of dialogue and communication. Never give feedback. And if you absolutely must, do it rarely and irregularly, make sure it’s disconnected from actual work, and preferably in the form of personal criticism. The absence of regular, task-focused and actionable feedback leaves employees in uncertainty, catches them off-guard during evaluations and gradually undermines their engagement.
How your employees interpret your intentions and feedback matters most. Be careful though: if feedback is perceived as constructive, it may actually boost motivation and learning engagement. But if the same feedback is seen as driven by a manager’s personal agenda (or, ego-based attribution), it backfires, leading to demotivation, withdrawal and exit.
A weekly e-mail in English featuring expertise from scholars and researchers. It provides an introduction to the diversity of research coming out of the continent and considers some of the key issues facing European countries. Get the newsletter!
Performance evaluation ‘trials’
Hold annual performance review meetings in which you focus solely on mistakes and completely ignore successes or invisible efforts. Be rigid, critical and concentrate only on weaknesses. Make sure to take full credit when the team succeeds; after all, without you, nothing would have been possible. On the other hand, when results fall short, don’t hesitate to highlight errors, assign individual blame and remind them that “you did warn them!”
This kind of performance evaluation, better described as a punitive trial, ensures deep demotivation and accelerates team turnover.
Internal competition, maxed out
Promote a culture of rivalry among colleagues: circulate internal rankings regularly, reward only the top performers, systematically eliminate the lowest ranked without even thinking of helping them improve, devalue the importance of cooperation and let internal competition do the rest. After all, these are the core features of the “famous” method popularized by the late Jack Welch at General Electric.
If you notice a short-term boost of motivation, don’t worry. The long-term effects of Welch’s “vitality curve” will be far more harmful than beneficial. Fierce internal competition is a great tool for destroying trust among teammates and creating a persistently toxic atmosphere, leading to an increase in the number of voluntary departures.
Ignore wellbeing and do not listen, no matter what
We’ve already established that feedback and dialogue should be avoided. But if, by misfortune, they do occur, make sure not to listen to complaints or warning signs related to stress or exhaustion. Offer no support or assistance, and of course, completely ignore the right to disconnect.
In addition, always favour highly variable and poorly designed performance bonuses: this will heighten income instability and kill off whatever engagement remains.
Want to take your talent-repelling skills even further? Draw inspiration from what research identifies as practices and experiences belonging to the three major forms of workplace violence. These include micromanagement, constant pressure, lack of recognition, social isolation and others that generate long-term suffering. Though often invisible, their reoccurence gradually wears employees down mentally, then physically, until they finally break.
Obviously, these tips are meant to be taken ironically.
Yet, unfortunately, these toxic practices are all too real in the daily routines of certain managers. If the goal is truly to retain talent and ensure lasting business success, it is essential to centre performance management practices around meaning, fairness and the genuine development of human potential.
George Kassar ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Laurence Grondin-Robillard, Professeure associée à l’École des médias et doctorante en communication, Université du Québec à Montréal (UQAM)
En s’engageant dans le sillage de X, Meta pourrait avoir précarisé la fiabilité de l’information sur ses plateformes.(Shutterstock)
Meta souhaitait « restaurer la liberté d’expression » sur ses plates-formes.
Les notes de la communauté sont un système de modération dit « participatif » permettant aux utilisateurs d’ajouter des annotations pour corriger ou contextualiser des publications. D’un média socionumérique à l’autre, les conditions pour devenir un contributeur de cette communauté varient peu : être majeur, actif sur la plate-forme depuis un certain temps et n’avoir jamais enfreint ses règles.
Sans tambour ni trompette, même YouTube et TikTok essayent désormais ce type de modération aux États-Unis. Dévoilé comme une réponse innovante aux défis posés par la circulation de fausses nouvelles, ce modèle mise sur l’autonomisation des utilisateurs pour arbitrer la qualité de l’information. Pourtant, cette tendance révèle un mouvement plus large : le désengagement progressif des médias socionumériques face à la vérification des faits et au journalisme.
D’ailleurs, que sait-on vraiment des notes de la communauté ?
Professeure associée et doctorante en communication à l’Université du Québec à Montréal, je m’intéresse aux transformations qui redéfinissent nos rapports aux technologies et à l’information, tout en reconfigurant les modes de gouvernance des médias socionumériques.
La modération communautaire : ce que dit la recherche
Après le rachat de Twitter par Elon Musk la même année et les licenciements massifs qui en ont suivi, notamment dans les équipes de modération, ce système devient primordial dans la stratégie de modération décentralisée de la plate-forme.
La littérature scientifique traitant de la question est limités, non seulement parce que le modèle est récent, mais également parce que la plate-forme X est son unique objet d’étude. Cependant, elle met en lumière des éléments intéressants sur ce type de modération.
D’abord, les notes de la communauté contribueraient à freiner la circulation de la mésinformation, réduisant jusqu’à 62 % les repartages. Elles augmenteraient également de 103,4 % les probabilités que les utilisateurs suppriment le contenu ciblé en plus de diminuer son engagement global.
Toutefois, il importe de distinguer mésinformation et désinformation. Les études se concentrent sur la première, car l’intention malveillante propre à la désinformation est difficile à démontrer méthodologiquement. Celle-ci est même absente des catégories imposées aux noteurs par X, qui doivent classifier les contenus comme misinformed (mésinformé), potentially misleading (potentiellement trompeur) et not misleading (non trompeur). Ce cadrage restreint contribue à invisibiliser un phénomène pourtant central dans les dynamiques de manipulation de l’information.
Les vérificateurs et journalistes assurent rigueur, rapidité, fiabilité, tandis que les notes, plus lentes à se diffuser, bénéficient d’un capital de confiance sur une plate-forme où journalisme et médias d’information sont souvent contestés. Leur rôle conjoint s’impose donc comme une évidence, contrairement aux idées prônées par Musk et Zuckerberg.
L’illusion d’une communauté au service de la rentabilité
Les bénéfices tirés de l’adoption de ce modèle par les géants du Web sont loin d’être négligeables : non seulement on mise sur les utilisateurs eux-mêmes pour contrer la « désinformation », mais on stimule en même temps leur activité et leur engagement au sein de la plate-forme.
Or, plus les usagers y passent du temps, plus leur attention devient monétisable pour les annonceurs, et donc profitable pour ces médias socionumériques. Ce modèle permet en outre de réaliser des économies substantielles en réduisant les besoins en personnel de modération et en limitant les investissements dans des programmes de vérifications des faits.
Malgré son apparente ouverture, ce système, comme déployé sur X, n’est pas réellement « communautaire » au sens où peut l’être un projet comme Wikipédia. Il ne repose ni sur la transparence des contributions ni sur un processus collaboratif et un but commun.
En réalité, il s’agit davantage d’un système algorithmique de tri, soit un filtre sélectif fondé sur des critères de visibilité optimisés pour préserver un équilibre perçu entre opinions divergentes. Bien que les notes soient factuelles, elles ne sont rendues visibles qu’à condition de franchir une série d’étapes comme celle de l’algorithme dit de « pontage » (bridging algorithm), qui n’affiche une note à l’ensemble des utilisateurs que si elle est approuvée à la fois par des utilisateurs aux opinions opposées.
De plus, il n’existe aucune mesure concernant l’exactitude ou la qualité des notes. Leur visibilité dépend uniquement de leur perception comme « utile » par des utilisateurs issus de courants idéologiques variés. Or, ce n’est pas parce qu’un consensus se forme autour d’une note qu’elle reflète nécessairement un fait.
L’information de qualité n’est pas la priorité
Les rhétoriques de « liberté d’expression » portées par ceux qui contrôlent les canaux de diffusion sur les médias socionumériques relèvent au mieux du contresens, au pire de l’hypocrisie. Les géants du Web, par le biais d’algorithmes opaques, décident de la visibilité et de la portée des notes de la communauté.
Face à cette réalité, la lutte à la « désinformation » est un combat noble, mais inégal, contre un ennemi insaisissable, alimenté par la mécanique impitoyable des algorithmes et de l’idéologie d’une broligarchie bien ancrée.
Comme le notaient déjà en 2017 les professeurs et économistes américains Hunt Allcott et Matthew Gentzkow, les fausses nouvelles prospèrent parce qu’elles sont moins coûteuses à produire que les vraies, plus virales et davantage gratifiantes pour certains publics. Tant que les plates-formes continueront de privilégier la circulation de contenu au détriment de la qualité, la bataille contre la « désinformation » restera profondément déséquilibrée quelle que soit la stratégie.
Repenser la liberté d’expression à l’ère des algorithmes
Si l’exportation des notes de la communauté au-delà des frontières américaines se confirme, elle représentera un progrès uniquement pour les propriétaires de ces plates-formes. Le modèle se présente comme ouvert, mais il repose sur une délégation contrôlée, balisée par des algorithmes qui filtrent toujours ce qui mérite d’être vu.
Ce n’est pas la communauté qui décide : c’est le système qui choisit ce qu’elle est censée penser.
En cédant une partie du travail journalistique à ces dispositifs opaques, nous avons affaibli ce qui garantit la qualité de l’information : exactitude, rigueur, impartialité, etc. Loin d’une démocratisation, c’est une dépolitisation de la modération qui s’opère où tout devient question de rentabilité, même les faits.
Elon Musk affirme « Vous êtes les médias maintenant ». La question à se poser désormais est la suivante : avons-nous vraiment une voix libre, ou sommes-nous de simples variables formatées dans un algorithme ?
Laurence Grondin-Robillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Nature isn’t confined to officially protected areas. A lot can be done to conserve biodiversity in other places too. The United Nations Convention on Biological Diversity agreed in 2018 on the idea of “other effective area-based conservation measures” (OECMs). These are geographically defined areas which can be managed in ways that protect biodiversity, ecosystem functions and “where applicable, cultural, spiritual, socio-economic, and other locally relevant values.” Geographer Ndidzulafhi Innocent Sinthumule has explored the potential for sacred natural sites in South Africa to contribute to nature conservation.
Why does South Africa need to protect more land?
In South Africa, although protected areas play a vital role in biodiversity conservation, they are not sufficient. A lot of biodiversity occurs outside formal protected areas. Protected areas make up only 9.2% (or 11,280,684 hectares) of the country’s total land area. The National Protected Area Expansion Strategy, which was last updated in 2016, aims to increase the percentage of protected areas in the country to 16%.
My view is that the target can only be achieved by recognising other areas that have high conservation value, such as sacred natural sites. These are places with special spiritual and cultural value.
Recognising sacred natural sites as “other effective area-based conservation measures” entails officially declaring them as protected areas.
There are also other sites with conservation potential. These could be on public, private or community land. This means they are governed by a variety of rights holders. Apart from sacred natural sites, other examples include military land and waters, and locally managedmarine areas.
Whatever their other, primary purpose, they can also deliver conservation of biodiversity.
Where are South Africa’s sacred natural sites?
There are areas in South Africa known as sacred sites because of their cultural, spiritual, or historical value, often linked to ancestral beings, religion and traditional beliefs.
They are often places of reverence, where rituals, ceremonies, burials, or pilgrimage are conducted, and where the custodians of the areas feel a deep connection to something larger than themselves.
How do the sites fit in with protecting diversity?
The study aimed to assess opinions and perceptions about the opportunities and challenges of sacred natural sites in contributing to global conservation goals.
I interviewed academics involved in research on Indigenous knowledge, people involved in discussions about conservation, and custodians of sacred natural sites – 39 people in all.
Study participants identified a number of opportunities. They said:
Sacred natural sites frequently harbour high levels of biodiversity, including rare and endemic species, because they have been protected for a long time through cultural practices. Giving them more legal protection and funding, and integrating them into national conservation strategies, would protect hotspots of biological diversity.
Integrating traditional ecological knowledge and practices into mainstream conservation efforts would promote more inclusive and culturally sensitive approaches to environmental management.
It would expand the total land area under conservation.
It might create conservation corridors that would facilitate movement of animals and ecological processes between isolated habitat patches.
Sacred natural sites could serve as carbon sinks or storehouses of carbon emissions. Sacred forests have old, tall trees and well developed canopy – the layer of foliage that forms the crown of a forest.
They can serve as tourist destinations where visitors will learn about biodiversity and about religious and cultural practices.
The study participants also identified challenges.
A big one was access rights and harmonising cultural and formal conservation practices. Access to sacred natural sites and the use of resources by the public is usually not permitted.
There was a fear that external intervention by government, nongovernmental organisations and conservationists might sideline local people and lead to the loss of their sacred sites.
External interventions might promote scientific knowledge at the expense of the traditional ecological knowledge that has protected sacred natural sites for millennia.
Respondents were concerned about elites capturing all the benefits and not sharing them equitably.
A methodological challenge might be how to study conservation effectiveness while respecting cultural sensitivities.
How would a sacred natural site be officially recognised?
At the moment, sacred natural sites are not designated or recognised as an “other conservation measure”. Currently, there are no standard procedures, criteria, or guidelines available for declaring them as such in South Africa. These would have to be determined by the national Department of Forestry, Fisheries and the Environment.
The process should begin with identifying all sacred natural sites to understand where they are and what contribution they could make towards biodiversity conservation. The department should do this in consultation with local communities and traditional leaders who understand the local environment. It should be in line with the international principle of Free, Prior, and Informed Consent. This acknowledges the right of Indigenous peoples to give or withhold their consent for any action that would affect their lands.
This will set up sacred natural sites as a conservation model that contributes to both biodiversity protection and cultural heritage preservation. The involvement of communities will ensure that sacred natural sites are a sustainable solution.
All the respondents in my study said that designating a site as an “other conservation measure” should give control or legal protection, ownership and stewardship roles to local communities who have protected the area for ages.
Ndidzulafhi Innocent Sinthumule does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Source: The Conversation – in French – By Françoise Vasselin, Maîtresse de conférences en Sciences Economiques – Université Paris-Est Créteil (UPEC), Université Paris-Est Créteil Val de Marne (UPEC)
L’USDT (Tether) et l’USDC (USD Coin) représentent plus de 90 % des stablecoins.ddRender/Shutterstock
Les stablecoins sont des actifs numériques conçus pour maintenir une valeur stable, généralement indexée sur le dollar américain. Leur capitalisation dépasse 260 milliards de dollars en juin 2025, dont plus de 99 % visent à suivre le dollar. Cette stabilité repose sur des réserves en monnaie fiduciaire, des cryptoactifs ou des mécanismes algorithmiques.
En ce mois de juin 2025, Circle, émetteur du stablecoin USDC, vient de déposer un dossier pour devenir une banque. La First National Digital Currency Bank. L’idée ? Se passer des acteurs bancaires traditionnels.
Les stablecoins jouent un rôle central dans les transformations monétaires actuelles. Loin d’être neutres, ils soulèvent des enjeux de régulation, de stabilité financière et de souveraineté. Dominés par l’USDT et l’USDC, qui représentent plus de 90 % du secteur, ils sont appelés à coexister avec les monnaies numériques de banques centrales — comme l’euro numérique — et les cryptoactifs décentralisés — comme le bitcoin.
Les comprendre, c’est anticiper l’évolution du système monétaire international.
Les stablecoins constituent l’une des quatre catégories de cryptoactifs — cryptomonnaies comme le bitcoin, jetons non monétaire comme le Basic Attention Token (BAT) sur ethereum, ou communautaire comme le $Trump –. On peut les distinguer à partir des deux critères : le mode d’émission et l’usage principal attendu.
Qu’en est-il des stablecoins ?
Natif et non natif
La majorité des cryptoactifs s’appuie sur des registres distribués — registre simultanément enregistré et synchronisé sur un réseau d’ordinateurs —, le plus souvent des blockchains, conçus pour enregistrer des données de manière fiable et infalsifiable.
Leur émission peut se faire de deux façons.
Les cryptoactifs natifs (ou cryptomonnaies) de paiement ou de plate-forme, comme le bitcoin ou l’ether, sont émis automatiquement par le logiciel de leur propre blockchain, conformément aux règles inscrites dans son protocole. De ce fait, ils ne sont associés à aucun émetteur identifiable.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
À l’inverse, les cryptoactifs non natifs sont créés après le lancement d’une blockchain, grâce à des programmes appelés contrats intelligents, ou smart contracts. Ces programmes autonomes, une fois lancés, fonctionnent de manière automatique et sans possibilité d’être modifiés. Ils sont installés sur une blockchain existante — comme Ethereum ou Solana — qui devient alors leur blockchain d’accueil.
Émetteur identifiable
Parmi les cryptoactifs non natifs, on distingue les jetons non monétaires, tels que les jetons utilitaires — comme le Basic Attention Token (BAT) sur Ethereum — ou communautaires — comme le $Trump ou Trump Coin —, et… les stablecoins, comme l’USDT.
L’émetteur d’un cryptoactif non natif est en général identifiable, car il existe une entité concevant le contrat intelligent, assurant la création et la gestion dudit jeton. Par exemple, le stablecoin USDC est émis par Circle, une entreprise spécialisée dans les services financiers numériques.
Sur la blockchain Ethereum, l’USDC prend la forme d’un jeton ERC-20, généré via un contrat intelligent. Ce jeton est conçu pour refléter la valeur du dollar américain, selon un principe de parité 1 :1. Lorsqu’un utilisateur envoie des dollars à Circle, celle-ci crée exactement la même quantité d’USDC et crédite l’adresse Ethereum de l’utilisateur. Les dollars reçus sont conservés en réserve, ce qui garantit la valeur des jetons émis. Circle reste responsable à la fois de l’émission et de la destruction des USDC, de manière à ce que chaque jeton en circulation corresponde à un dollar réel détenu en réserve.
Buste de Satoshi Nakamoto à Budapest, l’un des fondateurs du bitcoin. Shutterstock
Dans la vision de Satoshi Nakamoto, confondateur du Bitcoin, les cryptoactifs servent de moyen de paiement, puisqu’ils sont conçus pour permettre des transactions de pair-à-pair. Le bitcoin illustre pleinement cette fonction. Les stablecoins remplissent le même rôle, avec une particularité : leur valeur reste stable par rapport à une monnaie de référence, comme le dollar.
De son côté, Vitalik Buterin, cofondateur d’Ethereum, considère que le rôle principal des cryptoactifs est de donner accès aux services et fonctionnalités offerts par l’infrastructure blockchain ; qu’il s’agisse d’y développer des applications décentralisées, d’interagir avec des protocoles sans intermédiaires, ou encore d’y enregistrer des droits de propriété numérique comme les NFTs. L’idée : permettre aux utilisateurs de tirer parti de cette infrastructure, sans passer par des autorités centrales.
Les stablecoins sont donc des cryptoactifs non natifs, dont l’usage principal est celui de moyen de paiement.
Cryptoactif adossé au dollar
Face à la volatilité des cryptoactifs traditionnels, trois entrepreneurs, Brock Pierce, Craig Sellars et Reeve Collins, ont lancé en 2014 le projet RealCoin, le premier stablecoin adossé au dollar. Quelques mois plus tard, le projet a été rebaptisé Tether (USDT), afin de mieux refléter son ancrage à la monnaie états-unienne. Leur objectif est de créer un actif numérique stable, conçu pour faciliter les échanges tout en limitant les fluctuations de prix.
La stabilité des stablecoins repose généralement sur la possibilité pour les utilisateurs de les échanger à tout moment contre des dollars, à un taux fixe de 1 :1 — autrement dit, un jeton stablecoin vaut un dollar. Cette parité est rendue possible par l’existence de réserves, censées garantir la valeur de chaque jeton en circulation. Ces réserves peuvent prendre la forme de dollars déposés sur des comptes bancaires, ou, dans d’autres cas, de cryptoactifs.
Cours du Tether USDt (USDT) de sa création à aujourd’hui. Google Finance, FAL
Ce mécanisme d’émission et de rachat permet de corriger automatiquement les écarts de prix sur ce qu’on appelle le marché secondaire. Ce dernier regroupe les plateformes où les utilisateurs s’échangent directement les stablecoins entre eux, par opposition au marché primaire, où seuls les émetteurs créent ou détruisent les jetons.
Par exemple, si le prix d’un stablecoin dépasse un dollar, les utilisateurs sont incités à en vendre contre de la monnaie réelle, ce qui augmente l’offre du jeton et fait baisser son prix. À l’inverse, s’il passe sous un dollar, ils en rachètent, ce qui accroît la demande et fait remonter le prix. Ce jeu d’arbitrage contribue à maintenir la parité.
Trois types de stablecoins
Au sens strict, en excluant les cryptoactifs adossés à des matières premières, comme Tether Gold ou PAX Gold, qui suivent simplement le cours d’un actif réel tel que l’or, on distingue trois types de stablecoins :
Les stablecoins centralisés : adossés à des réserves en devises, souvent le dollar, ils sont émis par une entité centrale, comme Tether Limited, Circle, ou SG-Forge, une filiale de Société Générale, qui a lancé en avril 2023 un stablecoin adossé à l’euro (EURCV) destiné à des usages institutionnels sur la blockchain Ethereum.
Les stablecoins décentralisés comme DAI, dont la valeur est maintenue aussi proche que possible du dollar. Ils sont garantis par des cryptoactifs déposés dans des contrats intelligents sur la blockchain. Généralement surcollatéralisée, la valeur de ces cryptoactifs bloqués dépasse celle des jetons émis, afin d’absorber les pertes en cas de forte volatilité ou de défaut.
Les stablecoins algorithmiques, comme TerraUSD (UST), reposent sur un mécanisme à deux jetons : UST, censé rester stable à un dollar, et LUNA, utilisé pour absorber les variations de l’offre. Contrairement aux stablecoins garantis par des réserves réelles, UST n’était adossé à aucun collatéral tangible. Sa stabilité reposait sur des mécanismes incitatifs programmés, permettant notamment d’échanger 1 TerraUSD (UST) contre un dollar de LUNA. Mais en 2022, une perte de confiance a entraîné des ventes massives d’UST, forçant le protocole à émettre de grandes quantités de LUNA, ce qui a fait chuter sa valeur. Le système s’est enrayé, provoquant l’effondrement des deux jetons et révélant la fragilité de ce modèle.
Affaire Tether
En pratique, seuls les stablecoins centralisés bénéficient d’un mécanisme de stabilisation fondé sur l’arbitrage direct. Ce fonctionnement donne la possibilité pour les utilisateurs d’acheter ou de vendre des actifs numériques (jetons) en profitant d’écarts entre leur prix de marché et leur valeur théorique (1 dollar). Ils ont la garantie de pouvoir les échanger à tout moment contre des dollars auprès de l’émetteur, à un taux fixe de 1 :1. Ce mécanisme repose sur l’existence de réserves liquides, transparentes et bien gérées, permettant à l’émetteur d’assurer ce droit de rachat.
Deux affaires ont mis en lumière les limites de ce modèle lorsque la transparence fait défaut ou que l’émetteur conserve un pouvoir de blocage sur les fonds. En 2021, l’affaire Tether se conclut par une amende de 18,5 millions de dollars pour manque de transparence sur les réserves. En 2023, 63 millions d’USDC sont gelés par Circle à la suite du piratage de Multichain, un service de transfert entre blockchains, détourné à hauteur de 125 millions de dollars).
Ces événements mettent en lumière les approches divergentes des deux leaders actuels du marché des stablecoins. Circle (USDC) privilégie depuis l’origine la transparence et des actifs très liquides comme les bons du Trésor des États-Unis. Tether (USDT), longtemps critiqué pour son opacité et ses réserves risquées, a récemment renforcé la qualité et la transparence de ses actifs.
Usages concrets dans le monde entier
Les stablecoins sont déjà utilisés dans des contextes très variés, souvent face à des contraintes économiques locales. En 2022, le Haut Commissariat des Nations unies pour les réfugiés (HCR) a lancé un programme d’aide aux réfugiés ukrainiens via l’USDC sur la blockchain Stellar. Confrontés à une inflation supérieure à 100 %, de nombreux citoyens argentins se tournent vers l’USDT comme réserve de valeur et moyen de transaction.
Au Nigeria, leur usage s’est développé avec la dévaluation du naira et des restrictions bancaires. Enfin, aux Philippines, les stablecoins réduisent le coût des transferts de fonds depuis l’étranger. Les stablecoins jouent également un rôle croissant dans les environnements numériques. Sur certaines plates-formes, ils servent au paiement de salaires, comme avec Bitwage, ou aux réservations en ligne. À Singapour, les volumes de paiement en stablecoins dépassent déjà un milliard de dollars.
Dans tous les cas mentionnés, les stablecoins utilisés sont adossés au dollar états-unien, ce qui pourrait renforcer le rôle du dollar à l’échelle mondiale.
Exclusion de l’Union européenne ?
Depuis 2024, le règlement européen MiCA impose aux émetteurs de stablecoins une autorisation, ainsi que des exigences de transparence sur les réserves. Le stablecoin Euro CoinVertible (EURCV), lancé par Société Générale–Forge et émis sur les blockchains publiques Ethereum et Solana, répond à ces nouvelles exigences. Aux États-Unis, un projet de loi comparable, le Clarity for Payment Stablecoins Act, est toujours en discussion.
C’est dans ce contexte que Tether (USDT), principal stablecoin en circulation, se retrouve potentiellement exclu des plateformes régulées qui opèrent légalement dans l’Union européenne. Tether est émis hors d’Europe, par une entité qui n’a pas sollicité d’autorisation au titre de MiCA. Or, depuis juillet 2024, les stablecoins non autorisés ne peuvent plus être offerts au public ni admis à la négociation sur ces plateformes. USDT risque donc d’être progressivement retiré de plusieurs plateformes telles que Binance, Kraken, Bitstamp ou OKX EU.
Fragmentation du marché
Cette exclusion pourrait conduire à une fragmentation géographique du marché des stablecoins et à un avantage compétitif pour les jetons conformes à MiCA, comme EURCV. Cette situation illustre les limites de l’action réglementaire dans un environnement décentralisé. Si MiCA renforce la sécurité juridique sur les plateformes régulées, il ne peut pas empêcher la circulation transfrontière de l’USDT, qui restera accessible via des canaux non supervisés.
C’est aussi dans ce contexte que Société Générale–Forge s’apprête à lancer, durant l’été 2025, un nouveau stablecoin adossé au dollar, l’USD CoinVertible (USDCV). Émis sur Ethereum et Solana, ses actifs de réserve seront déposés auprès de la banque New York Mellon Corporation. Ce lancement pourrait contribuer à capter une part du marché institutionnel européen laissée vacante par le retrait probable de l’USDT. Il offrirait une alternative conforme à MiCA, libellée en dollar américain. D’autres initiatives similaires commencent à émerger…
Instruments de politique monétaire
Au-delà des aspects juridiques, les stablecoins sont devenus des instruments de politique monétaire internationale. En mars 2025, le secrétaire au Trésor américain Scott Bessent a déclaré que le gouvernement utiliserait les stablecoins pour maintenir la domination du dollar comme monnaie de réserve mondiale. Il a souligné que ces actifs facilitent l’accès au dollar et soutiennent la demande pour la dette publique américaine.
Face à cette situation, l’Union européenne cherche à accélérer la mise en place d’un euro numérique, une forme de monnaie de banque centrale, émise par la BCE et accessible au grand public, qui fonctionnera sur une blockchain privée. Pierre Gramegna, directeur général du Mécanisme européen de stabilité, a récemment alerté sur le risque d’une dépendance aux stablecoins adossés au dollar. Selon lui, leur adoption massive pourrait fragiliser la stabilité financière de la zone euro.
Françoise Vasselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Axel Gautier, Professeur d’économie, HEC Liège, LCII (Liège Competition and Innovation Institute), Université de Liège
Pour promouvoir le développement du solaire, de nombreux États ont mis en place des politiques incitatives, pour pousser notamment les particuliers à se doter de panneaux solaires. Mais ces subventions peuvent avoir des effets pervers et engendrer des situations inéquitables.
Le gouvernement français a réduit les aides financières dédiées à l’installation de panneaux solaires ainsi que le tarif de rachat de l’électricité produite, spécialement pour les particuliers. L’occasion de scruter les effets de ce type de subventions, à travers l’exemple de la Belgique, que j’ai étudiée.
En 2022, une étude de l’OCDE montrait que si la taxation du carbone est peu populaire, les politiques de soutien aux technologies « vertes » le sont beaucoup plus, tant auprès des citoyens que des politiciens.
Si ces subsides peuvent s’avérer utiles, ils doivent toutefois être conçus en anticipant la réaction des bénéficiaires, or celle-ci est parfois contre-productive. L’exemple des subventions dont jouissent les panneaux solaires et qui ont été globalement très généreuses, interpelle à cet égard : elles ont modifié le comportement des ménages, mais pas toujours dans le sens attendu.
Dans un contexte de transition énergétique, qui implique en particulier une hausse de la production décarbonée et décentralisée d’électricité, les défis sont considérables. Le développement et l’intégration dans le réseau de cette production décentralisée, par les individus et par les communautés d’énergie, requiert un cadre adéquat.
Quand les incitations découragent l’autoconsommation
Prenons le cas de la Wallonie, en Belgique. Ici, les propriétaires de panneaux solaires peuvent injecter leur production solaire excédentaire dans le réseau électrique, et la consommer gratuitement plus tard. Ce système, appelé net metering ou compensation, valorise la production solaire au prix de détail, c’est-à-dire que ces citoyens la vendent à un niveau supérieur au prix du marché de gros.
Logiquement, ce phénomène devrait engendrer un plus grand déploiement des panneaux solaires là où l’électricité est la plus chère : notre étude récente fondée sur des données recueillies dans 262 municipalités wallonnes entre 2008 et 2016, montre en effet que des tarifs de distribution élevés incitent davantage à l’installation de panneaux photovoltaïques. Chaque augmentation de 1 centime par kWh dans les tarifs de distribution entraîne une hausse de 8 % des installations par an.
Le système de compensation présente toutefois des limites. S’il favorise la production solaire, il n’encourage pas suffisamment les ménages à l’autoconsommation, c’est-à-dire à consommer au moment où ils produisent, ni à investir dans des systèmes de stockage d’énergie : il leur est plus rentable de la vendre sur le réseau.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Une situation qui peut entraîner des coûts supplémentaires pour les opérateurs de réseau, qui doivent gérer des injections massives d’électricité au moment où la production solaire est abondante. Par ricochet, cela affecte les ménages non équipés de panneaux qui voient les coûts du réseau augmenter.
Ce constat souligne un défi central pour les régulateurs : comment concevoir des incitations financières qui équilibrent promotion des énergies renouvelables et durabilité des infrastructures du réseau ?
Quand les subventions poussent à la surconsommation
En Wallonie, de nombreux ménages bénéficiant de subsides généreux ont surdimensionné leur installation photovoltaïque, produisant plus d’électricité que nécessaire. Ce surplus est disponible gratuitement pour la consommation et très largement consommé par les ménages eux-mêmes, ce qui conduit à une augmentation de la consommation d’électricité de près 35 % chez les ménages suréquipés.
Cet effet rebond va à l’encontre des objectifs initiaux de réduction de la consommation d’énergie. Le principe de compensation incite à la consommation des surplus solaires, car les ménages perçoivent cette électricité comme « gratuite ».
Ainsi des politiques de soutien conçues pour promouvoir les énergies renouvelables peuvent encourager des comportements de surconsommation, diluant les bénéfices environnementaux et pour le climat.
Quand le soutien au solaire est vécu comme injuste
Pour aller plus loin, un article récent publié avec des collègues met en lumière une autre problématique : les tensions politiques engendrées par les politiques de soutien aux énergies renouvelables.
En Belgique, la générosité de ces subventions a créé des déséquilibres financiers importants, qui se sont traduits par une progression généralisée des prix de l’électricité et une hausse des factures, principalement pour ceux qui n’avaient pas installé de panneaux. Ce financement a plus tard été partiellement complété par une contribution aux frais de réseaux imposée aux détenteurs de panneaux solaires.
Dans les régions où l’adoption des panneaux solaires a été massive, cette dynamique a eu pour conséquence de nourrir la défiance vis-à-vis des partis au pouvoir. Les ménages non équipés, qui ne bénéficient pas des subventions, ont critiqué les coûts élevés de l’électricité, favorisant ainsi des mouvements politiques « anti establishment ». Malgré leur rôle crucial pour promouvoir les énergies renouvelables, les subventions présentent le risque d’accentuer les divisions sociales lorsque les coûts associés sont perçus comme injustes.
Ce qui pose une question fondamentale pour l’avenir des politiques énergétiques : comment s’assurer que les subventions profitent à tous, sans créer de tensions sociales ou de coûts disproportionnés pour les ménages non bénéficiaires ? Une certitude : les réformes politiques doivent tenir compte de l’impact à long terme des subventions et de leur répartition plus équitable.
Des communautés énergétiques pour une production plus équitable
En outre, tout le monde n’a pas la capacité d’installer des panneaux solaires sur son toit. Dans ce contexte, l’émergence des communautés d’énergie apparaît comme une alternative intéressante qui permet de faire participer le plus grand nombre à la transition énergétique.
Dans un article récent publié avec des collègues, nous donnons un éclairage sur la possibilité pour des groupes de citoyens, d’entreprises ou d’organisations d’investir ensemble dans des unités de production d’énergie renouvelable (solaire ou éolienne) et d’ensuite partager la production au sein d’une communauté.
Ces communautés permettent une consommation locale de l’énergie produite, réduisant ainsi les coûts sur le réseau. Elles favorisent aussi une répartition plus équitable des bénéfices de la transition énergétique, en permettant à un plus grand nombre de ménages de participer à la production et à la consommation d’énergie renouvelable.
Pour que ces communautés soient viables, il est toutefois nécessaire d’établir des cadres réglementaires adéquats. Cela inclut des systèmes de tarification qui encouragent l’autoconsommation tout en minimisant les impacts négatifs pour les non-membres de la communauté. Nos travaux insistent pour cela sur l’importance d’adapter les incitations financières et les infrastructures.
Des politiques énergétiques plus équitables et durables
Nos recherches citées dans cet article mettent en lumière les effets inattendus des politiques de subventions solaires. Si elles ont réussi le pari de dynamiser l’adoption des énergies renouvelables, elles ont aussi provoqué des déséquilibres économiques, techniques (sur le réseau de transport d’électricité) et sociaux qui nécessitent d’être corrigés afin de garantir une transition énergétique réussie.
L’idée d’une production d’énergie plus locale, à travers des communautés énergétiques, pourrait être une réponse plus juste aux défis posés par les subventions individuelles. En réorganisant la production et la consommation d’énergie à l’échelle locale, il serait possible de réduire les tensions sociales, de diminuer les coûts pour les ménages, et d’assurer une meilleure intégration des énergies renouvelables dans les infrastructures existantes.
Pour que cette transition réussisse, toutefois, il est essentiel de repenser les cadres réglementaires actuels, en tenant compte des habitudes de consommation et des effets rebonds qui peuvent émerger avec les nouvelles technologies. Il s’agit de trouver un équilibre entre l’incitation à l’adoption des énergies renouvelables et la durabilité à long terme des systèmes énergétiques.
Il apparaît donc indispensable de réinventer les politiques énergétiques pour s’adapter à la réalité des comportements des consommateurs et aux exigences des infrastructures. Le défi est de taille, mais les solutions proposées, telles que les communautés énergétiques, offrent une voie prometteuse vers une transition énergétique plus équitable et durable.
Ce texte a été écrit en collaboration avec le Dr Arnaud Stiepen, expert en vulgarisation scientifique.
Axel Gautier ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – in French – By Anne E. Deysine, Professeur émérite juriste et américaniste, spécialiste des États-Unis, questions politiques, sociales et juridiques (Cour suprême), Université Paris Nanterre – Université Paris Lumières
Le 27 juin, par six voix contre trois – celles des six juges conservateurs contre les trois progressistes –, la Cour suprême des États-Unis a rendu une décision aux lourdes implications : les juges fédéraux ne pourront plus bloquer les décisions de l’administration Trump. Plus que jamais, le président a les mains libres pour appliquer ses décrets, y compris ceux qui contreviennent aux dispositions de la Constitution.
L’affaire qui a conduit à la décision prise par la Cour suprême le 27 juin touche au droit du sol. Signé en grande pompe par Donald Trump le jour même de son investiture, le 20 janvier 2025, le décret 14 610 stipule que les enfants nés de parents ne disposant pas de titre de séjour permanent valable (green card) ou n’ayant pas la nationalité américaine ne deviennent pas citoyens à la naissance.
Ce décret constitue une violation de ce que prévoient explicitement le 14ᵉ amendement à la Constitution, la loi sur la nationalité de 1940 et la jurisprudence de la Cour suprême elle-même : dans la décision U.S. v. Wonk Kym Ark de 1898, elle avait jugé que même si ses parents étaient « sujets de l’Empereur de Chine », un enfant né aux États-Unis était bien citoyen américain.
Un tour de passe-passe judiciaire
L’application du décret avait alors immédiatement été contestée par 22 États, des associations pour la défense des migrants et plusieurs mères enceintes souhaitant protéger les droits de leur enfant à naître, puis suspendue par trois juges différents saisis au Massachusetts, dans le Maryland et dans l’État de Washington. Ces ordonnances avaient ensuite été confirmées en appel.
Face à ce blocage, l’administration Trump a adressé à la Cour suprême une demande d’intervention d’urgence, dans laquelle elle demandait à la Cour de juger illégales les ordonnances dites « universelles » (Nationwide injunctions).
La Cour aurait pu refuser ce tour de passe-passe mais, une fois de plus, elle a refusé de jouer son rôle de contre-pouvoir. Le 27 juin, dans la décision « Trump vs. CASA » (CASA étant le nom d’une organisation d’aide aux migrants), elle a accédé aux désirs du président. Le moment et l’affaire choisis sont éminemment politiques : les initiatives de l’administration Biden en matière de vaccination obligatoire ou d’effacement de la dette des étudiants avaient été bloquées par ce type d’ordonnances universelles, et la Cour n’avait alors rien fait.
Durant l’audience du 15 mai, les questions posées par les juges conservateurs avaient reflété leur hostilité envers les ordonnances universelles, qui s’appliquent à tous ceux dont les droits risquent d’être violés, et pas seulement aux requérants et parties aux procès. Pourtant, alors que le risque était de créer le chaos avec des situations différentes selon les États, une ordonnance universelle se justifiait pleinement ici.
Cette pratique, qui est un phénomène récent (remontant sans doute à 1963), a connu un pic au cours des 20 dernières années et a été critiquée par les républicains comme par les démocrates, à des périodes différentes. Elle est due à une conjonction de facteurs. Parce que le Congrès est polarisé et dysfonctionnel, les présidents Obama, Trump et Biden ont eu recours aux décrets pour tenter de faire avancer leurs priorités politiques hors la voie législative. Leurs adversaires ont aussitôt saisi la justice fédérale en ayant soin de choisir une juridiction dont les juges partagent leur vision idéologique, ce qu’on appelle le forum shopping.
Les républicains intentent leurs actions au Texas et en Floride, qui relèvent de deux cours d’appel conservatrices (5e et 11e circuits). Les progressistes, eux, saisissent la justice à New York, dans l’Oregon ou à Hawaï, là où les juges sont plutôt progressistes et où les cours d’appel compétentes, celles des 2e et 9e circuits, sont encore progressistes malgré la nomination par Trump, durant son premier mandat, de 250 juges très conservateurs choisis par la Federalist Society pour leur fidélité idéologique.
La décision de la Cour suprême et ses conséquences
L’opinion majoritaire rédigée par la juge conservatrice Barrett est courte (33 pages) mais accompagnée de plusieurs opinions « séparées » – des opinions convergentes rédigées par les juges de droite qui auraient voulu aller plus loin, et deux opinions dissidentes par les juges progressistes.
La motivation de l’opinion majoritaire est extrêmement technique et s’appuie sur un pseudo-originalisme qui remonte à la naissance de l’Equity créé en Angleterre pour pallier les lacunes du droit de common law, et à la loi qui a créé le système judiciaire des États-Unis (Federal Judiciary Act, 1789) pour conclure que les juridictions fédérales ne jouissent pas du pouvoir de rendre ces ordonnances universelles.
La juge progressiste Sotomayor, auteur d’une longue opinion dissidente démontant le raisonnement de la juge Barrett, a décidé d’en lire des extraits (pendant 20 minutes) à haute voix, après l’annonce, par la juge Barrett, de la décision de la majorité. Cette pratique extrêmement rare, déjà utilisée par elle-même une fois cette année et plusieurs fois par la juge Ruth B. Ginsburg, icône de la gauche, vise à porter le débat au-delà du cercle restreint des juristes, et à souligner son désaccord profond avec la décision majoritaire et les dangers pour les libertés dont cette décision est porteuse.
La juge progressiste Jackson, dans une deuxième opinion dissidente, a le mérite de poser la question de façon plus directe encore. Les juridictions peuvent-elles s’opposer à un comportement illégal ou inconstitutionnel du président ? De son point de vue, la réponse est positive. Mais la juge Barrett, avec une once de condescendance, a rétorqué dans l’opinion majoritaire que la loi qui a créé l’organisation judiciaire (Federal Judiciary Act de 1789) n’a pas accordé aux juridictions fédérales ce pouvoir d’agir en Equity. Celles-ci ne peuvent donc pas violer le droit juste pour empêcher le président de violer celui-ci. « Les juridictions n’exercent pas un contrôle général de la branche exécutive ; elles résolvent des “controverses” et contentieux en vertu de l’autorité qui leur a été conférée par le Congrès. Quand une juridiction conclut que l’Exécutif a agi de façon illégale, la solution n’est pas que le juge excède lui aussi ses pouvoirs et fasse de preuve de suprématie judiciaire. », écrit Barrett.
L’interdiction de ces ordonnances à portée universelle signifie qu’il incombera désormais, dans les 28 États dirigés par les républicains qui n’ont pas contesté le décret en justice, à chacun des enfants (ou plutôt à leurs représentants, mères ou associations ou États) de saisir le juge afin de contester l’application du décret en invoquant la violation du 14e amendement.
La décision rendue ne s’appliquera qu’à cet enfant ou à ce groupe d’enfants, mais pas à la totalité des enfants nés de parents ne disposant pas de titre de séjour permanent valable. Dès que le délai de 30 jours fixé par la Cour sera écoulé, l’administration Trump pourra appliquer le décret dans ces 28 États, ce qui pourra amener des mères à tenter d’aller accoucher à New York ou dans le Massachusetts et qui, à terme, va creuser encore davantage le fossé entre États « rouges » (républicains) et États « bleus » (démocrates) protecteurs des droits attaqués par l’administration Trump.
Sur le plan logistique, et c’est ce que défendaient les États requérants, ce sera le chaos car les enfants se déplacent au cours de leur vie. Or, le statut de citoyen entraîne des droits et permet de bénéficier de certains services. Quid si un enfant né dans un État « rouge » (où les autorités auront refusé de le déclarer comme citoyen à sa naissance) vient vivre dans un État « bleu » ? Il n’aura pas les documents nécessaires et l’État ne percevra pas les subventions correspondantes du gouvernement fédéral (bons alimentaires par exemple). La décision majoritaire n’a pas entendu les États, mais ceux-ci peuvent continuer à agir et vont modifier leur requête en tenant compte de l’arrêt de la Cour.
Quid de la suite ?
Restent les recours collectifs (class actions) qui avaient occupé une bonne partie du temps lors de l’audience. Les avocats des requérants ont expliqué que constituer une action de groupe est compliqué et prend du temps.
Ils ont tenté de convaincre les juges que lorsqu’il y a urgence, ce n’est pas l’instrument idéal. La Cour ne les a pas suivis. Dès l’annonce de la décision, les groupes de défense des libertés ont donc déposé des demandes d’actions de groupe « nationales ». C’est ce qu’a fait l’association de défense des libertés fondamentales ACLU le jour même de la décision, le 27 juin, dans le New Hampshire et un autre groupe dans le Maryland.
Mais ce sera un parcours semé d’embûches car la Cour a progressivement rendu plus difficile la certification des actions de groupes : elle a, par exemple, refusé de façon spécieuse de certifier l’affaire Walmart en 2011. Ce sera donc au mieux complexe et lent, à la différence de ces ordonnances qui protègent avec effet immédiat tous ceux qui risquent de se voir privés d’un droit constitutionnel.
La Cour veut-elle encore être un contre-pouvoir ?
Le pouvoir judiciaire a été créé afin d’être un contre-pouvoir et le rempart protégeant les droits et libertés. C’est ce qu’ écrit Alexander Hamilton dans Le Fédéraliste n° 78, et ce fut la mission des juridictions durant la deuxième moitié du XXe siècle.
Mais aujourd’hui, avec la Cour Roberts (du nom de John Roberts, président de la Cour suprême depuis 2005), les droits fondamentaux sont en danger, et pas uniquement le droit du sol. Une dizaine d’autres ordonnances suspendent pour l’instant des décrets sans doute illégaux signés par Donald Trump : ceux qui bloquent les fonds votés par le Congrès, démantèlent les agences, limogent les fonctionnaires, s’en prennent aux transgenres et visent à modifier les règles électorales alors que celles-ci relèvent des États et, si besoin, du Congrès mais en aucun cas du président. Selon le texte du décret concerné, le libellé du recours et les requérants (États, particuliers), les juridictions vont devoir adapter leurs décisions en tenant compte de l’arrêt rendu par la Cour ce 27 juin.
En denier ressort, les affaires finiront devant la Cour suprême mais celle-ci, à la différence de la Cour Warren (1953-1969), ne cherche pas à ouvrir les portes de la Cour au maximum de justiciables et à les protéger. Elle veut limiter le nombre des bénéficiaires d’une décision favorable et la protection que peuvent procurer le droit et la Constitution à aussi peu de certains justiciables que possible. C’est apparu de façon évidente dans les questions et les développements des juges durant l’audience du 15 mai. Il s’agit, pour la Cour, de veiller à ce qu’un individu majeur ou mineur, qui risque d’être privé d’un droit, ne puisse pas bénéficier d’une décision qui n’a pas été le résultat d’une action en justice intentée par lui ou ses représentants.
Avec les trois juges nommés par Donald Trump à la Cour suprême durant son premier mandat, sélectionnés par la Federalist Society et approuvés grâce aux manœuvres de celui qui était alors le leader républicain au Sénat, Mitch McConnell, la Cour suprême est devenue la Cour des puissants et des nantis. Elle est enfin ce que voulaient l’avocat Powell (dans son Memo Powell de 1971) et ceux qui ont créé le mouvement conservateur dès les années 1970. Elle peut, par son interprétation des lois et de la Constitution, faire advenir des reculs (politiques, économiques et sociaux) qui ne peuvent passer par la voie législative. La droite est enfin parvenue à infléchir le droit en faveur des riches et puissants via la capture des juridictions et de la Cour suprême.
Anne E. Deysine ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Lors de la visite de Benyamin Nétanyahou à Washington, Donald Trump a affiché son optimisme quant à un possible cessez-le-feu à Gaza. Pourtant, les discussions patinent, et les objectifs à long terme du gouvernement israélien révèlent bien plus un choix pour la guerre que de véritables pistes de résolution du conflit.
Le 7 juillet, Donald Trump a accueilli le premier ministre israélien Benyamin Nétanyahou pour un dîner à la Maison Blanche, à l’issue duquel il a déclaré que les pourparlers visant à mettre fin à la guerre à Gaza « se passent très bien ».
De son côté, Nétanyahou a annoncé qu’il avait proposé la candidature de Trump au prix Nobel de la paix, déclarant :
« Il est en train de forger la paix, à l’instant même, d’un pays à l’autre, d’une région à l’autre. »
Malgré toutes ces déclarations sur la paix, les négociations en cours au Qatar entre les délégations israélienne et palestinienne se sont interrompues sans résultats concrets. Les pourparlers devraient reprendre plus tard cette semaine.
Si un accord est conclu, il sera sans doute considéré comme une chance majeure de mettre fin à presque deux ans de crise humanitaire à Gaza, ouverte par l’opération lancée par Tsahal dans la bande après les attaques du 7 octobre au cours desquelles 1 200 Israéliens ont été tués.
Cependant, le scepticisme grandit quant à la pérennité de tout éventuel cessez-le-feu. Le précédent accord de cessez-le-feu, conclu en janvier 2025 et ayant permis la libération de dizaines d’otages israéliens et de centaines de prisonniers palestiniens, a été rompu dès mars, lorsque Israël a repris ses opérations militaires à Gaza.
Cette rupture de confiance des deux côtés, combinée aux opérations militaires israéliennes en cours et à l’instabilité politique, laisse penser qu’un nouvel accord risque de n’être qu’une pause temporaire plutôt qu’une solution durable.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Les détails de l’accord
L’accord proposé prévoit un cessez-le-feu de 60 jours visant à désamorcer les tensions entre les différents acteurs et à créer un espace pour des négociations en vue d’un règlement plus pérenne.
Le Hamas devrait libérer dix otages israéliens survivants et restituer les dépouilles de dix-huit autres. En échange, Israël devrait retirer ses forces militaires vers une zone tampon définie le long des frontières de Gaza avec Israël et l’Égypte.
Un otage israélien entouré de combattants palestiniens à Gaza, où certains sont détenus depuis vingt-deux mois – leur libération figure au cœur de l’accord actuellement négocié à Doha. Anas-Mohammed/Shutterstock
Par ailleurs, alors que les modalités précises d’un échange de prisonniers restent en cours de discussion, la libération de détenus palestiniens emprisonnés en Israël continue d’être un volet central des négociations et des revendications palestiniennes.
L’aide humanitaire constitue également un volet majeur de l’accord. L’assistance serait acheminée par des organisations internationales, principalement des agences de l’ONU et le Croissant-Rouge palestinien.
Cependant, l’accord ne précise pas le rôle futur du Fonds humanitaire de Gaza soutenu par les États-Unis, qui distribue une aide alimentaire depuis le mois de mai, et ce alors que l’urgence d’un accès humanitaire se fait chaque jour plus pressante au regard de l’ampleur des destructions à Gaza.
Selon le ministère de la Santé de Gaza, la campagne militaire israélienne a coûté la vie à plus de 57 000 Palestiniens (chiffres repris par l’ONU). L’offensive a déclenché une crise alimentaire, déplacé une grande partie de la population à l’intérieur du territoire et laissé de vastes zones en ruines.
Fait important, cet accord ne mettrait pas fin à la guerre, ce qui constitue une revendication centrale du Hamas. Il engage plutôt les deux parties à poursuivre les discussions durant les 60 jours, dans l’espoir d’aboutir à un cessez-le-feu plus solide et global.
Les obstacles pour une paix durable
Même si le contexte semble propice à la signature d’un cessez-le-feu définitif, tout spécialement après les lourds dégâts infligés au Hamas par Israël, le gouvernement de Nétanyahou semble réticent à mettre un terme complet à sa campagne militaire.
Pour des raisons en bonne partie propres à des considérations de politique intérieure : la coalition au pouvoir en Israël dépend fortement de partis d’extrême droite qui insistent pour poursuivre la guerre. Toute tentative sérieuse de cessez-le-feu pourrait vraisemblablement entraîner l’effondrement du gouvernement Nétanyahou.
Pourtant, d’un point de vue militaire, Israël a atteint plusieurs de ses objectifs tactiques.
Il a considérablement affaibli le Hamas ainsi que d’autres factions palestiniennes et provoqué une dévastation généralisée à travers Gaza. S’y ajoutent, en Cisjordanie, le meurtre de centaines de Palestiniens, ainsi que des arrestations massives et de nombreuses démolitions de maisons.
Des Palestiniens devant des bâtiments détruits à Gaza, où le scepticisme persiste quant à la possibilité qu’un cessez-le-feu temporaire aboutisse à une paix durable. Anas-Mohammed/Shutterstock
Plus important encore peut-être, Israël a, en juin dernier, frappé en profondeur l’infrastructure militaire iranienne, tuant des dizaines de commandants de haut rang et endommageant les capacités balistiques et nucléaires de Téhéran.
Pourtant, les buts de Nétanyahou semblent dépasser les simples victoires tactiques. Plusieurs signes indiquent qu’il vise deux objectifs stratégiques plus larges.
D’abord, en rendant Gaza de plus en plus invivable, son gouvernement pourrait pousser les Palestiniens à fuir la Bande. Cela ouvrirait de fait la voie à une annexion du territoire par Israël à long terme – un scénario soutenu par une grande partie des alliés d’extrême droite du premier ministre.
S’exprimant à la Maison Blanche, Nétanyahou a affirmé travailler de concert avec les États-Unis pour trouver des pays prêts à accueillir les Palestiniens de Gaza :
« Si les gens veulent rester, ils peuvent rester ; mais s’ils veulent partir, ils doivent pouvoir partir. »
Ensuite, en prolongeant la guerre, Nétanyahou peut retarder son procès pour corruption en cours et prolonger sa survie politique.
Au cœur de l’impasse se trouve la vision de l’extrême droite israélienne : celle d’une défaite totale des Palestiniens, sans concessions ni reconnaissance d’un futur État palestinien. Une vision qui bloque depuis des décennies la résolution du conflit.
Divers dirigeants israéliens ont à plusieurs reprises qualifié toute entité palestinienne potentielle de « moins qu’un État » ou « État-moins », une formulation qui ne correspond ni aux aspirations palestiniennes ni aux normes juridiques internationales.
Aujourd’hui, même cette vision limitée semble écartée, alors que la politique israélienne s’oriente vers un rejet total de l’idée d’un État palestinien.
Alors que les mouvements de résistance palestiniens sont fortement affaiblis et qu’aucune menace immédiate ne pèse sur Israël, la période actuelle constitue un test crucial des intentions de Tel-Aviv.
Israël cherche-t-il véritablement la paix, ou vise-t-il à consolider sa domination dans la région tout en niant de façon permanente aux Palestiniens leur droit à un État ?
À la suite de ses succès militaires et de la normalisation de ses relations avec plusieurs États arabes dans le cadre des Accords d’Abraham en 2020, le discours politique israélien n’a fait que se radicaliser.
Certaines voix au sein de l’establishment israélien plaident ouvertement pour le déplacement permanent des Palestiniens vers des pays arabes voisins comme la Jordanie, l’Égypte ou l’Arabie saoudite. La mise en œuvre d’un tel projet reviendrait à effacer toute perspective de création d’un futur État palestinien.
Cela suggère que, pour certaines factions en Israël, l’objectif final n’est pas un règlement négocié, mais une solution unilatérale qui redessinerait la carte et la composition démographique de la région.
Les semaines à venir révéleront si Israël choisira la voie du compromis et de la coexistence, ou s’il empruntera une trajectoire rendant impossible toute paix durable.
Ali Mamouri ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Un adolescent a récemment été arrêté en France pour un projet d’attentat inspiré par le masculinisme, relançant l’alerte sur cette mouvance. Né en réaction aux avancées féministes, le masculinisme prétend défendre des hommes présentés comme opprimés et converge de plus en plus vers les idéologies d’extrême droite. Les réseaux sociaux offrent une nouvelle et inquiétante visibilité à cette mouvance, notamment auprès des jeunes hommes.
Le parquet national antiterroriste (PNAT) a, pour la première fois en France, mis un jeune homme en examen pour un projet d’attentat lié aux « incels » (contraction en anglais de « involuntary celibate » – célibataire involontaire – désignant une sous-culture en ligne caractérisée par une haine des féministes, accusées d’entraver leur accès sexuel aux femmes), qui s’inscrit plus largement dans la mouvance masculiniste.
Ce n’est un cas ni isolé, ni propre à la France. En 1989, Marc Lépine assassinait 14 femmes à l’École polytechnique de Montréal en dénonçant le féminisme. En 2014, aux États-Unis, Elliot Rodger tuait six personnes, expliquant dans un manifeste sa rancœur envers les femmes qui ne le désiraient pas. Depuis, plusieurs attentats perpétrés par des hommes ont été revendiqués au nom d’une même idéologie : le masculinisme.
Pour les masculinistes, les féministes et les femmes auraient inversé les rapports de domination, les hommes seraient désormais opprimés et il faudrait des mesures pour les protéger. Un récit fondé sur ce que le politologue Francis Dupuis-Déri appelle « le mythe de la crise de la masculinité ».
Le masculinisme : une résistance aux avancées féministes
Ces passages à l’acte sont souvent interprétés comme des dérives psychiatriques. Cette lecture psychologisante obère toutefois la dimension collective et politique du masculinisme qui doit être considéré comme un contre-mouvement social, c’est-à-dire une mobilisation qui se forme en opposition (en réaction) à un mouvement progressiste, ici le féminisme, pour défendre un ordre social hiérarchisé précis.
Le masculinisme s’organise activement – hors ligne et en ligne – contre l’égalité des genres, pour défendre les privilèges masculins mis en cause par les luttes féministes. La sociologue Mélissa Blais le décrit comme un contre-mouvement structuré, enraciné dans l’histoire des résistances aux avancées féministes.
Bien qu’ancré dans une histoire longue, le masculinisme connaît aujourd’hui une reconfiguration numérique inédite, portée par la circulation transnationale de contenus sur les réseaux sociaux. Ce n’est pas tant son idéologie qui est nouvelle, que ses formes, ses publics et ses canaux de diffusion.
Les réseaux sociaux ne créent pas cette idéologie, mais ils la rendent plus visible, plus accessible, et surtout plus attractive pour un public jeune en quête d’identité, de repères genrés et de récits explicatifs du monde. Ce nouvel écosystème permet ainsi au masculinisme d’échapper à la marginalité dans laquelle il était autrefois cantonné, pour s’imposer comme une forme contemporaine d’engagement réactionnaire.
Une idéologie qui prolifère dans la « manosphère »
Aujourd’hui, cette idéologie prolifère dans la « manosphère », un ensemble de sous-cultures numériques que l’on retrouve, par exemple, sur des forums comme Reddit (une plate-forme communautaire américaine qui regroupe des milliers de sous-forums thématiques, souvent modérés de façon laxiste), des chaînes YouTube, des serveurs Discord ou des groupes Telegram.
Dans ces espaces circulent des discours haineux, des guides de drague problématiques (valorisant la manipulation et mettant au second plan le consentement) et des appels à ce qui est décrit comme une revanche sexuelle à prendre sur les femmes, à travers, notamment, le viol ou le revenge porn.
La « néo-manosphère », selon certains chercheurs, s’est intensifiée au cours de la dernière décennie en migrant vers des plates-formes peu modérées, en s’adaptant aux codes de l’influence virale et en croisant ses récits avec ceux de l’extrême droite, du suprémacisme blanc ou du complotisme.
Le masculinisme converge de plus en plus vers les idéologies d’extrême droite. Cette alliance se construit autour d’un récit commun : celui d’un ordre social menacé par l’égalité, la diversité et la modernité.
Un contre-mouvement exploité politiquement à l’extrême droite
Le masculinisme est aujourd’hui exploité par des figures d’extrême droite dans les espaces numériques. Thaïs d’Escufon, ex militante de Génération identitaire– groupuscule dissous en mars 2021 par le ministère de l’Intérieur, a par exemple réorienté ses productions numériques vers le masculinisme et vend des formations à destination des jeunes hommes, mêlant conseils de développement personnel, coaching en virilité, revalorisation de rôles genrés traditionnels, critique du féminisme et surtout conseils de drague.
Les discours masculinistes sont aussi investis par certains politiques. Aux États-Unis, Donald Trump a délibérément soutenu des figures de la manosphère comme Andrew Tate ou Jordan Peterson, contribuant à mobiliser une partie de l’électorat masculin.
Ce type de rhétorique se retrouve également ailleurs : au Brésil, avec l’ancien président Jair Bolsonaro, qui a multiplié les déclarations sexistes et homophobes ; en Argentine, avec Javier Milei. Dans ces cas, le masculinisme devient un vecteur de mobilisation politique autour d’une identité masculine perçue comme menacée. Il permet de réactiver des affects de ressentiment en les articulant à une promesse de restauration de l’ordre patriarcal.
Ces passages à l’acte s’inscrivent dans des réseaux, récits et références partagés. Comme le rappelle l’Anti-Defamation League, les nouvelles formes d’extrémisme se fondent sur une posture victimaire : des hommes qui se pensent persécutés, trahis par la modernité, autorisés à répondre par la violence.
Identifier le continuum masculiniste
Reconnaître le caractère politique du masculinisme plutôt que le réduire à des problématiques psychologiques individuelles est indispensable pour y répondre. Cela implique une formation plus poussée des magistrats, journalistes et enseignants à ces phénomènes. Cela suppose aussi une meilleure régulation des espaces numériques où ces idées circulent.
Il s’agit d’une part de reconnaître ce qui ne relève pas de l’opinion mais de l’incitation à la haine et d’autre part, de ne pas se focaliser uniquement sur les actes ou prises de position les plus spectaculaires (comme les influenceurs qui jouent volontairement sur l’outrance pour viraliser leurs contenus) et les plus meurtriers.
Si le masculinisme réussit à se répandre c’est aussi parce qu’il s’appuie sur des idées sexistes banalisées et qui sont déjà bien ancrées dans nos sociétés tels que la supposée émotivité et vénalité des femmes ou la meilleure rationalité des hommes.
Ces préjugés sont souvent inculqués dès l’enfance à travers une éducation genrée (deux tiers des femmes déclarent avoir été éduquées différemment des garçons). Cette socialisation différenciée naturalise les inégalités, que les discours masculinistes réactivent ensuite pour justifier la hiérarchie entre les sexes.
Tristan Boursier a reçu des financements du Fonds de recherche du Québec société et culture (FRQSC).
Source: The Conversation – in French – By Marianne Lumeau, Maître de conférences en économie numérique, de la culture et des médias, Université de Rennes
Les algorithmes de recommandations des plates-formes de streaming traitent-ils différemment les musiques francophones ? Existe-t-il un biais algorithmique en défaveur des contenus francophones, français ou québécois ? Au contraire, les contenus produits aux États-Unis ou en langue anglaise sont-ils favorisés ? Dans quelle mesure les utilisateurs adoptent-ils des stratégies de découverte différentes pour les titres musicaux francophones ?
A côté de la radio, le streaming musical est aujourd’hui un mode d’accès à la musique dominant. Par conséquent, la majorité des revenus de la musique enregistrée est aujourd’hui issue de son exploitation sur les plates-formes de streaming, particulièrement grâce aux abonnements. Ces plates-formes ont introduit un nouveau modèle d’affaires : alors que dans le monde physique seul l’acte d’achat compte, chaque écoute d’un titre est désormais comptabilisée. Par ailleurs, elles proposent aux consommateurs des catalogues de plus de cent millions de titres, ainsi que des mécanismes pour pouvoir les guider face à ces ensembles gigantesques et faciliter la découverte : playlists éditorialisées, recommandations algorithmiques, etc.
Dans ce contexte, les gouvernements et acteurs de la filière musicale de certaines petites économies (dont la France et le Québec) ont fait part de leurs craintes quant à la découvrabilité des contenus locaux : ces derniers seraient moins facilement découvrables que les contenus d’une grande économie, États-Unis d’Amérique en tête. Cela conduit à s’interroger sur les façons dont les contenus francophones sont traités par les auditrices et des auditeurs et par les plates-formes de streaming, notamment via leurs systèmes de guidage des écoutes.
Pour répondre à ces questions, nous avons réalisé, avec une équipe de chercheurs, une étude qualitative, basée sur la conduite de 37 entretiens en France et au Québec auprès d’abonnés de plates-formes de streaming musical, ainsi qu’une étude quantitative consistant à auditer expérimentalement un algorithme de recommandations de Spotify.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Usage non dominant des systèmes de recommandation
L’enquête qualitative menée par les sociologues Jean-Samuel Beuscart et Romuald Jamet montre qu’il existe des spécificités dans l’écoute de la musique francophone chez les Français et les Québécois (on la sollicite moins lors de tâches demandant de la concentration), mais pas en termes de découverte. La découverte musicale dépend de l’appétence des usagers pour cette pratique, et non de l’origine géographique ou de la langue des titres.
Pour découvrir ou redécouvrir des titres, ils peuvent avoir recours aux systèmes de guidage des plates-formes, mais pas de manière exclusive ou dominante : ces pratiques de découverte s’encastrent dans un panel de pratiques habituelles et socialement ancrées reposant principalement sur la découverte par les pairs et la radio.
Des recommandations en fonction des goûts des usagers
Les résultats de l’expérimentation indiquent que les recommandations produites par l’algorithme de Spotify tendent à respecter les préférences des individus : plus ils consomment de titres locaux et plus l’algorithme leur en recommande.
Par ailleurs, il n’existe pas de biais algorithmique en défaveur des titres produits en France ou au Québec, en comparaison des titres américains. En revanche, les titres francophones sont moins recommandés par l’algorithme que les titres en langue anglaise. L’étude révèle toutefois que ces biais en défaveur des titres francophones sont de faible ampleur.
Cependant, lorsque les usagers choisissent de suivre systématiquement les recommandations faites par l’algorithme, l’ampleur des biais linguistiques en défaveur des titres francophones augmente largement au cours du temps et de forts biais géographiques apparaissent à l’encontre des titres produits en France ou au Québec. Un utilisateur fictif français ou québécois se fiant entièrement aux algorithmes finirait par voir ses préférences largement déformées : la part de chansons française ou québécoise décroît très fortement au profit de chansons états-uniennes en anglais. Ce phénomène ne se produit pas avec la même force pour un utilisateur fictif états-unien.
Cette hypothèse d’utilisateurs centrés uniquement sur l’écoute de titres recommandés, faisant fi de leurs préférences musicales initiales, ne correspond pas aux comportements observés actuellement : sur les plates-formes de streaming musical, la part des écoutes issues de recommandations algorithmiques est encore faible (30 % en moyenne). Il s’agit surtout de situation où l’exposition musicale est subie et/ou inattentive, comme lorsque l’on travaille, ou encore dans des lieux publics (café, etc.).
Comment le streaming a mangé la musique ?
Des résultats à surveiller
Notons que les résultats obtenus sont situés dans le temps. Les comportements d’écoute et de découverte, incluant davantage d’écoutes guidées par exemple, ainsi que des recommandations produites par l’algorithme peuvent évoluer. Ces dernières dépendent des usages qui viennent le nourrir, mais également du paramétrage par la plate-forme. La recherche de rentabilité semble passer pour certaines plates-formes par une réduction des coûts via des contrats proposant une meilleure exposition de certains contenus en échange de rémunérations plus faibles, la création de faux artistes utilisés pour compléter les playlists à côté de titres à succès, ou encore le recours à des titres créés par l’IA. Dans ces deux derniers cas, un souci d’économie d’échelle pourrait amener les plates-formes multinationales et/ou leurs fournisseurs de contenus à privilégier des titres en langue anglaise.
Notre étude débouche sur quatre recommandations.
D’abord, il est nécessaire de mesurer régulièrement si les contenus locaux sont traités différemment par les auditeurs et les plates-formes dans les processus de découverte de nouveautés musicales.
Ensuite, il convient de mettre en place des procédures pour de telles mesures : analyse de données macroéconomiques des parts de marché des titres locaux et réalisation de tests d’existence des potentiels biais. Ces tests pourraient être réalisés par les plates-formes de streaming (a minima sur les outils de guidage les plus utilisés) qui, en parallèle, devraient mettre à disposition des chercheurs et des institutions indépendantes (par exemple l’ARCOM en France ou le CRTC au Canada), via une procédure simplifiée, des données pour vérifier l’existence de biais.
Transparence et personnalisation des systèmes de guidage
La troisième recommandation porte sur la transparence des algorithmes par les plates-formes. Les consommateurs doivent pouvoir comprendre simplement comment fonctionnent les algorithmes qu’ils utilisent (ou souhaitent utiliser). C’est particulièrement vrai dans un contexte où le type de contenus recommandés par les plates-formes de streaming n’est pas contraint et dépend uniquement de leur volonté et de leurs intérêts économiques (pouvant être mêlés à ceux de certains acteurs dominants via notamment des liens contractuels et capitalistiques). Dans un souci d’autonomie de choix, les individus devraient également pouvoir personnaliser certains paramètres (comme l’origine géographique ou la langue).
Soutien à la diversité des mécanismes de découverte
La quatrième recommandation porte sur le fait d’encourager la diversité. Au sein des plates-formes de streaming, les systèmes de découverte éditorialisées et algorithmiques doivent varier selon différents critères pour limiter les potentiels biais sur des filières locales. Un soutien à la découverte via d’autres canaux que les recommandations des plates-formes de streaming doit également être valorisé. Dans un monde où la radio reste un canal de découverte central, elle doit continuer à être soutenue et poussée à la promotion de la diversité linguistique et la protection des contenus culturels locaux. La comparaison France/Québec indique également la nécessité de favoriser la diversité des expressions musicales au Québec (moins riche qu’en France), notamment en soutenant l’amont de la filière.
Marianne Lumeau a reçu des financements du ministère de la culture français et du ministère de la culture et de la communication québécois dans le cadre d’un appel à projet sur la découvrabilité.
François Moreau a participé à un projet financé par le ministère de la culture français et du ministère de la culture et de la communication québécois dans le cadre d’un appel à projet sur la découvrabilité.
Jordana Viotto a participé a un projet sur la découvrabilité des contenus numériques financé par le ministère de la culture français et le ministère de la culture et de la communication québécois.
Samuel Coavoux a reçu des financements de l’Agence Nationale de la Recherche (projet RECORDS, ANR-2019-CE38-0013).