« You are the media now ! »
Avec ces mots postés au lendemain de l’élection de Trump, Elon Musk défendait une vision selon laquelle l’information ne serait plus contrôlée par quelques grands médias (les « legit medias »), mais façonnée collectivement. Depuis son rachat de Twitter en 2022, il a en effet cherché à concrétiser cette idée en misant sur une modération décentralisée, incarnée par les Community Notes, un système qui repose sur l’intelligence collective et une transparence revendiquée.
Mark Zuckerberg, pour des raisons que nous n’aborderons pas ici (mais que Fabrice Epelboin, comme à son habitude, decrypte très bien) a annoncé récemment que Facebook et Instagram allaient abandonner progressivement le fact-checking professionnel au profit d’un modèle inspiré des Community Notes (pas pour l’UE). Cette décision a immédiatement suscité un tollé. Certains dénoncent un choix dangereux qui risque d’accélérer la propagation de la désinformation, au point que Joe Biden lui-même l’a qualifié de « honteuse » et « contraire aux valeurs démocratiques ». D’autres, en revanche, y voient une adaptation nécessaire des politiques de modération face à un paysage informationnel où le contrôle de la vérité par un cercle restreint, aux modalités de sélection opaques, évoque de plus en plus le Miniver d’Orwell.
Mais alors que valent les Community Notes ? Sont-elles une alternative crédible à celles-ci ? Peuvent-elles être une réponse suffisante à la crise de confiance qui frappe les médias traditionnels et les réseaux sociaux ?
Les Community notes : une efficacité prouvée
Souvent perçues comme une alternative risquée au fact-checking, les Community Notes se révèlent pourtant d’une efficacité remarquable. Contrairement aux craintes évoquées, plusieurs études suggèrent qu’elles offrent un contrôle de l’information au moins aussi rigoureux que le factchecking.
Un taux d’exactitude élevé
Ainsi, une étude de l’université de Californie publiée en avril 2024 a analysé 657 Community Notes publiées sur X à propos du Covid-19 et a relevé un taux d’exactitude de 97,5 %, avec 87 % de ces notes s’appuyant sur des sources de haute qualité. Des conclusions qui contredisent l’idée selon laquelle une modération participative serait nécessairement plus sujette aux erreurs ou à la manipulation.
Une autre étude, menée en 2024 par des chercheurs français, montre également que, contrairement aux étiquettes d’avertissement apposées par les plateformes (par exemple Bluesky), les Community Notes fournissent un contexte détaillé expliquant pourquoi une information est trompeuse, ce qui les rend plus convaincantes pour les utilisateurs. Ainsi, une troisième étude récente, menée auprès de 1800 Américains, révèle que les Community Notes sont perçues comme plus crédibles que les corrections de fact-checkers, précisément parce qu’elles exposent leurs arguments de manière transparente et documentée. Ces résultats rejoignent ceux d’une étude menée par Cornell Tech concernant l’initiative Cofacts à Taïwan, qui a démontré que les dispositifs basés sur le crowdsourcing, pouvaient être plus rapides et plus complets que les vérifications professionnelles.
Un impact mesurable sur la viralité
Mais l’influence des Community Notes ne se limite pas à la correction de l’information : elles modifient également le comportement des utilisateurs. Ainsi, lorsqu’une note est ajoutée à un tweet, le nombre de retweets diminue de près de 50 %, et la probabilité que l’auteur supprime son propre message augmente de 80 % [Ibid.].
Enfin, une dernière étude, pas encore publiée, démontre qu’exposer les utilisateurs à des Community Notes réduit la diffusion de messages trompeurs de 60 % en moyenne. Toutefois, leur efficacité est limitée par un facteur temps : alors que 50 % des retweets d’un message surviennent dans les cinq heures suivant sa publication et 80 % dans les seize heures, le délai moyen de publication d’une note est de 15,5 heures. Un décalage temporel qui limite l’impact immédiat du dispositif et laisse aux tweets trompeurs le temps de faire leur œuvre. Malgré cela, les Community Notes parviennent tout de même à ralentir la viralité des fausses informations, réduisant leur diffusion de 16 à 21 %. Notons que ce temps de réaction reste en moyenne très inférieur à celui d’une équipe de fact-checking, nécessairement limitée en nombre et devant par ailleurs sélectionner les sujets qu’elle va vérifier.
Un système ouvert, mais exigeant
Le fonctionnement même de l’algorithme contribue à cette fiabilité. En effet, contrairement aux systèmes de fact-checking traditionnels, susceptibles d’opacité, notamment dans la sélection des sujets à « débunker », celui des Community Notes est en open source, ce qui signifie que n’importe quel développeur peut examiner son code et en déduire le fonctionnement précis. Cela constitue probablement une surprise pour beaucoup de lecteurs après tout ce que l’on a pu entendre à ce sujet ces dernières semaines.
Loin d’être un simple filtre algorithmique, le système repose donc sur un mécanisme participatif rigoureux. Ainsi, seules 11,3 % des notes proposées atteignent le statut Currently Rated Helpful (CRH) qui leur permet d’être visible par tous, ce qui montre la difficulté de parvenir à un consensus entre contributeurs. Pour garantir leur pertinence « l’algorithme d’évaluation des notes de la communauté tente explicitement de donner la priorité aux notes qui reçoivent des évaluations positives de la part de personnes ayant des points de vue différents » [source].
Les mécanismes de crowdsourcing qui permettent l’émergence de cette « sagesse des foules« , reposent, pour produire des résultats pertinents, sur l’agrégation des contributions individuelles. Ce principe, initialement observé par le mathématicien Francis Galton au XIXè siècle et approfondi par de nombreux chercheurs depuis, est devenu une pierre angulaire des mécanismes de recommandation algorithmique utilisés par les services en ligne. Sa mise en œuvre varie en fonction du degré d’implication des utilisateurs :
- Implicite : le système analyse les interactions des utilisateurs avec une plateforme pour affiner ses recommandations. C’est le cas des algorithmes d’Amazon, Spotify ou Vinted, qui adaptent leur contenu en fonction des préférences détectées.
- Explicite « simple » : l’utilisateur exprime directement une prédiction, un vote ou un pari, comme sur les plateformes de marchés prédictifs (Polymarket, PredictIt, Kalshi,…)
- Explicite « avancé » : les contributions impliquent l’apport de preuves factuelles de ce qui est affirmé. C’est le cas des notes de communautés.
Ainsi, au fil du temps, les Community Notes ont corrigé nombre de publications trompeuses de personnalités influentes et de grands titres de presse. Ironie du sort, certaines de ces corrections concernent des médias disposant de leur propre service de fact-checking.
Petit florilège :
Le site Community Notes Leaderboard agrège les tweets ayant reçu une note de communauté. Certains « twittos » se font bien sûr un malin plaisir à établir des classements à partir de ces données…
Attention, il ne s’agit pas toujours de fausses informations qui auraient été « corrigées » par la communauté. Il peut s’agir (parfois) d’un contexte ajouté afin de permettre une meilleure interprétation de l’information. Par ailleurs, il serait nécessaire de calculer des ratios en fonction de la portée et du nombre d’impressions de ces comptes X. Les tweets de Sandrine Rousseau entraînent plus de réactions que ceux d’un utilisateur lambda.
L’essor des notes de communauté et leur adoption probable par les réseaux sociaux incarne une mutation dans la manière dont l’information est vérifiée et régulée. En remettant la modération entre les mains d’un collectif d’utilisateurs plutôt que d’un petit groupe de personnes, elles marquent une rupture avec le modèle devenu classique du fact-checking centralisé. Par ailleurs, loin d’être une alternative hasardeuse, leur efficacité est aujourd’hui démontrée par plusieurs études attestant de leur rigueur et de leur impact sur la viralité des fausses informations.
Toutefois, si ce modèle semble plus démocratique et transparent, il n’est pas exempt de défauts, le principal étant le temps de réaction à une publication trompeuse. Par ailleurs, , son succès repose sur un équilibre ténu entre diversité des contributeurs et exigence de fiabilité.
La question est donc : sommes-nous prêts à laisser la vérité à l’intelligence collective (et à l’algo !). Mais la réponse n’a pas a être un oui inconditionnel. En effet, il est tout à fait imaginable de mettre en oeuvre des procédures de vérification à deux niveaux. Le premier destiné à traiter le flux massif d’information/désinformation/désinformation, géré par les notes de communauté. Le second, pris en charge par des fact-checkers qui viendraient en support lorsque certains sujets, trop subtils ou trop complexes pour les notes de communauté, doivent être traités.
Dès lors, la question n’est plus de savoir si les Community Notes sont une alternative viable au fact-checking traditionnel, mais plutôt comment les améliorer pour qu’elles deviennent un outil de référence, capable de s’imposer face aux défis que constituent des flux d’information toujours plus massifs et des faux contenus démultipliés par les IA génératives.
Une chose est certaine : la modération de l’information ne sera plus jamais la même.
Article publié initialement le 07/02/2025 sur LinkedIn
