Exportation du modèle des « notes de la communauté » de X vers Meta, TikTok et YouTube : ce que ça va changer

Source: The Conversation – in French – By Laurence Grondin-Robillard, Professeure associée à l’École des médias et doctorante en communication, Université du Québec à Montréal (UQAM)

En s’engageant dans le sillage de X, Meta pourrait avoir précarisé la fiabilité de l’information sur ses plateformes. (Shutterstock)

En février 2024, Meta réduisait la découvrabilité du contenu jugé « politique » sur Instagram et Threads afin de limiter l’exposition des utilisateurs à des publications controversées et de favoriser une expérience positive. Moins d’un an plus tard, Mark Zuckerberg annonçait plutôt l’inverse : la fin du programme de « vérification des faits », remplacé par les « notes de la communauté » comme sur X (anciennement Twitter) ainsi qu’un assouplissement du côté des politiques de modération.

Meta souhaitait « restaurer la liberté d’expression » sur ses plates-formes.

Les notes de la communauté sont un système de modération dit « participatif » permettant aux utilisateurs d’ajouter des annotations pour corriger ou contextualiser des publications. D’un média socionumérique à l’autre, les conditions pour devenir un contributeur de cette communauté varient peu : être majeur, actif sur la plate-forme depuis un certain temps et n’avoir jamais enfreint ses règles.

Sans tambour ni trompette, même YouTube et TikTok essayent désormais ce type de modération aux États-Unis. Dévoilé comme une réponse innovante aux défis posés par la circulation de fausses nouvelles, ce modèle mise sur l’autonomisation des utilisateurs pour arbitrer la qualité de l’information. Pourtant, cette tendance révèle un mouvement plus large : le désengagement progressif des médias socionumériques face à la vérification des faits et au journalisme.

D’ailleurs, que sait-on vraiment des notes de la communauté ?

Professeure associée et doctorante en communication à l’Université du Québec à Montréal, je m’intéresse aux transformations qui redéfinissent nos rapports aux technologies et à l’information, tout en reconfigurant les modes de gouvernance des médias socionumériques.

La modération communautaire : ce que dit la recherche

Les notes de la communauté demeurent une fonctionnalité très récente. Connues sous le nom initial de Birdwatch sur Twitter, elles sont déployées à la suite de l’assaut du Capitole en janvier 2021 avec un premier groupe de 1000 contributeurs aux États-Unis. L’accès est progressivement élargi à un échantillon atteignant environ 10 000 participants en mars 2022.

Après le rachat de Twitter par Elon Musk la même année et les licenciements massifs qui en ont suivi, notamment dans les équipes de modération, ce système devient primordial dans la stratégie de modération décentralisée de la plate-forme.

La littérature scientifique traitant de la question est limités, non seulement parce que le modèle est récent, mais également parce que la plate-forme X est son unique objet d’étude. Cependant, elle met en lumière des éléments intéressants sur ce type de modération.

D’abord, les notes de la communauté contribueraient à freiner la circulation de la mésinformation, réduisant jusqu’à 62 % les repartages. Elles augmenteraient également de 103,4 % les probabilités que les utilisateurs suppriment le contenu ciblé en plus de diminuer son engagement global.

Toutefois, il importe de distinguer mésinformation et désinformation. Les études se concentrent sur la première, car l’intention malveillante propre à la désinformation est difficile à démontrer méthodologiquement. Celle-ci est même absente des catégories imposées aux noteurs par X, qui doivent classifier les contenus comme misinformed (mésinformé), potentially misleading (potentiellement trompeur) et not misleading (non trompeur). Ce cadrage restreint contribue à invisibiliser un phénomène pourtant central dans les dynamiques de manipulation de l’information.




À lire aussi :
De Twitter à X : Comment Elon Musk façonne la conversation politique américaine


Ensuite, les utilisateurs jugeraient les notes de la communauté plus crédibles que les simples étiquettes de fausses nouvelles ou de désinformation, car elles fournissent un contexte explicatif. De plus, les contributeurs se concentreraient davantage sur les publications de comptes influents, ce qui pourrait limiter la portée de la mésinformation.

Enfin, la recherche souligne la complémentarité entre vérification des faits et notes de la communauté. Ces dernières s’appuient fréquemment sur des sources professionnelles, particulièrement pour les contenus complexes, et prolongent le travail amorcé par les professionnels.

Les vérificateurs et journalistes assurent rigueur, rapidité, fiabilité, tandis que les notes, plus lentes à se diffuser, bénéficient d’un capital de confiance sur une plate-forme où journalisme et médias d’information sont souvent contestés. Leur rôle conjoint s’impose donc comme une évidence, contrairement aux idées prônées par Musk et Zuckerberg.

L’illusion d’une communauté au service de la rentabilité

Les bénéfices tirés de l’adoption de ce modèle par les géants du Web sont loin d’être négligeables : non seulement on mise sur les utilisateurs eux-mêmes pour contrer la « désinformation », mais on stimule en même temps leur activité et leur engagement au sein de la plate-forme.

Or, plus les usagers y passent du temps, plus leur attention devient monétisable pour les annonceurs, et donc profitable pour ces médias socionumériques. Ce modèle permet en outre de réaliser des économies substantielles en réduisant les besoins en personnel de modération et en limitant les investissements dans des programmes de vérifications des faits.

Malgré son apparente ouverture, ce système, comme déployé sur X, n’est pas réellement « communautaire » au sens où peut l’être un projet comme Wikipédia. Il ne repose ni sur la transparence des contributions ni sur un processus collaboratif et un but commun.

En réalité, il s’agit davantage d’un système algorithmique de tri, soit un filtre sélectif fondé sur des critères de visibilité optimisés pour préserver un équilibre perçu entre opinions divergentes. Bien que les notes soient factuelles, elles ne sont rendues visibles qu’à condition de franchir une série d’étapes comme celle de l’algorithme dit de « pontage » (bridging algorithm), qui n’affiche une note à l’ensemble des utilisateurs que si elle est approuvée à la fois par des utilisateurs aux opinions opposées.

En pratique, cette exigence freine considérablement la capacité du système à faire émerger les corrections mêmes pertinentes. Selon une analyse de Poynter, moins de 10 % des notes proposées sur X deviennent visibles. Ce taux aurait d’ailleurs chuté après une modification de l’algorithme en février dernier, une semaine après qu’Elon Musk s’est plaint d’une note réfutant de la désinformation anti-ukrainienne.

De plus, il n’existe aucune mesure concernant l’exactitude ou la qualité des notes. Leur visibilité dépend uniquement de leur perception comme « utile » par des utilisateurs issus de courants idéologiques variés. Or, ce n’est pas parce qu’un consensus se forme autour d’une note qu’elle reflète nécessairement un fait.

L’information de qualité n’est pas la priorité

Les rhétoriques de « liberté d’expression » portées par ceux qui contrôlent les canaux de diffusion sur les médias socionumériques relèvent au mieux du contresens, au pire de l’hypocrisie. Les géants du Web, par le biais d’algorithmes opaques, décident de la visibilité et de la portée des notes de la communauté.

Ces mécanismes et discours alimentent l’érosion de la confiance envers le journalisme et la vérification des faits, car sur ces médias socionumériques, la qualité de l’information importe moins que sa capacité à générer de l’attention et à circuler. Le cas de Meta au Canada en est révélateur. En bloquant l’accès aux médias d’information en réponse à la Loi C-18, l’entreprise a démontré qu’elle pouvait agir presque impunément. Même en période électorale, les investissements publicitaires ont afflué, y compris de la part des mêmes partis et élus qui avaient pourtant dénoncé ledit blocage.




À lire aussi :
J’ai testé l’abonnement Premium de X et Meta Verified sur Instagram : voici mes constats sur les crochets d’authentification


Face à cette réalité, la lutte à la « désinformation » est un combat noble, mais inégal, contre un ennemi insaisissable, alimenté par la mécanique impitoyable des algorithmes et de l’idéologie d’une broligarchie bien ancrée.

Comme le notaient déjà en 2017 les professeurs et économistes américains Hunt Allcott et Matthew Gentzkow, les fausses nouvelles prospèrent parce qu’elles sont moins coûteuses à produire que les vraies, plus virales et davantage gratifiantes pour certains publics. Tant que les plates-formes continueront de privilégier la circulation de contenu au détriment de la qualité, la bataille contre la « désinformation » restera profondément déséquilibrée quelle que soit la stratégie.

Repenser la liberté d’expression à l’ère des algorithmes

Si l’exportation des notes de la communauté au-delà des frontières américaines se confirme, elle représentera un progrès uniquement pour les propriétaires de ces plates-formes. Le modèle se présente comme ouvert, mais il repose sur une délégation contrôlée, balisée par des algorithmes qui filtrent toujours ce qui mérite d’être vu.

Ce n’est pas la communauté qui décide : c’est le système qui choisit ce qu’elle est censée penser.

En cédant une partie du travail journalistique à ces dispositifs opaques, nous avons affaibli ce qui garantit la qualité de l’information : exactitude, rigueur, impartialité, etc. Loin d’une démocratisation, c’est une dépolitisation de la modération qui s’opère où tout devient question de rentabilité, même les faits.

Elon Musk affirme « Vous êtes les médias maintenant ». La question à se poser désormais est la suivante : avons-nous vraiment une voix libre, ou sommes-nous de simples variables formatées dans un algorithme ?

La Conversation Canada

Laurence Grondin-Robillard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Exportation du modèle des « notes de la communauté » de X vers Meta, TikTok et YouTube : ce que ça va changer – https://theconversation.com/exportation-du-modele-des-notes-de-la-communaute-de-x-vers-meta-tiktok-et-youtube-ce-que-ca-va-changer-255680