« You are the media now ! »
Avec ces mots postés au lendemain de l’élection de Trump, Elon Musk défendait une vision selon laquelle l’information ne serait plus contrôlée par quelques grands médias (les « legit medias »), mais façonnée collectivement. Depuis son rachat de Twitter en 2022, il a en effet cherché à concrétiser cette idée en misant sur une modération décentralisée, incarnée par les Community Notes, un système qui repose sur l’intelligence collective et une transparence revendiquée.
Mark Zuckerberg, pour des raisons que nous n’aborderons pas ici (mais que Fabrice Epelboin, comme à son habitude, decrypte très bien) a annoncé récemment que Facebook et Instagram allaient abandonner progressivement le fact-checking professionnel au profit d’un modèle inspiré des Community Notes (pas pour l’UE). Cette décision a immédiatement suscité un tollé. Certains dénoncent un choix dangereux qui risque d’accélérer la propagation de la désinformation, au point que Joe Biden lui-même l’a qualifié de « honteuse » et « contraire aux valeurs démocratiques ». D’autres, en revanche, y voient une adaptation nécessaire des politiques de modération face à un paysage informationnel où le contrôle de la vérité par un cercle restreint, aux modalités de sélection opaques, évoque de plus en plus le Miniver d’Orwell.
Mais alors que valent les Community Notes ? Sont-elles une alternative crédible à celles-ci ? Peuvent-elles être une réponse suffisante à la crise de confiance qui frappe les médias traditionnels et les réseaux sociaux ?
Les Community notes : une efficacité prouvée
Souvent perçues comme une alternative risquée au fact-checking, les Community Notes se révèlent pourtant d’une efficacité remarquable. Contrairement aux craintes évoquées, plusieurs études suggèrent qu’elles offrent un contrôle de l’information au moins aussi rigoureux que le factchecking.
Un taux d’exactitude élevé
Ainsi, une étude de l’université de Californie publiée en avril 2024 a analysé 657 Community Notes publiées sur X à propos du Covid-19 et a relevé un taux d’exactitude de 97,5 %, avec 87 % de ces notes s’appuyant sur des sources de haute qualité. Des conclusions qui contredisent l’idée selon laquelle une modération participative serait nécessairement plus sujette aux erreurs ou à la manipulation.
Une autre étude, menée en 2024 par des chercheurs français, montre également que, contrairement aux étiquettes d’avertissement apposées par les plateformes (par exemple Bluesky), les Community Notes fournissent un contexte détaillé expliquant pourquoi une information est trompeuse, ce qui les rend plus convaincantes pour les utilisateurs. Ainsi, une troisième étude récente, menée auprès de 1800 Américains, révèle que les Community Notes sont perçues comme plus crédibles que les corrections de fact-checkers, précisément parce qu’elles exposent leurs arguments de manière transparente et documentée. Ces résultats rejoignent ceux d’une étude menée par Cornell Tech concernant l’initiative Cofacts à Taïwan, qui a démontré que les dispositifs basés sur le crowdsourcing, pouvaient être plus rapides et plus complets que les vérifications professionnelles.
Un impact mesurable sur la viralité
Mais l’influence des Community Notes ne se limite pas à la correction de l’information : elles modifient également le comportement des utilisateurs. Ainsi, lorsqu’une note est ajoutée à un tweet, le nombre de retweets diminue de près de 50 %, et la probabilité que l’auteur supprime son propre message augmente de 80 % [Ibid.].
Enfin, une dernière étude, pas encore publiée, démontre qu’exposer les utilisateurs à des Community Notes réduit la diffusion de messages trompeurs de 60 % en moyenne. Toutefois, leur efficacité est limitée par un facteur temps : alors que 50 % des retweets d’un message surviennent dans les cinq heures suivant sa publication et 80 % dans les seize heures, le délai moyen de publication d’une note est de 15,5 heures. Un décalage temporel qui limite l’impact immédiat du dispositif et laisse aux tweets trompeurs le temps de faire leur œuvre. Malgré cela, les Community Notes parviennent tout de même à ralentir la viralité des fausses informations, réduisant leur diffusion de 16 à 21 %. Notons que ce temps de réaction reste en moyenne très inférieur à celui d’une équipe de fact-checking, nécessairement limitée en nombre et devant par ailleurs sélectionner les sujets qu’elle va vérifier.
Un système ouvert, mais exigeant
Le fonctionnement même de l’algorithme contribue à cette fiabilité. En effet, contrairement aux systèmes de fact-checking traditionnels, susceptibles d’opacité, notamment dans la sélection des sujets à « débunker », celui des Community Notes est en open source, ce qui signifie que n’importe quel développeur peut examiner son code et en déduire le fonctionnement précis. Cela constitue probablement une surprise pour beaucoup de lecteurs après tout ce que l’on a pu entendre à ce sujet ces dernières semaines.
Loin d’être un simple filtre algorithmique, le système repose donc sur un mécanisme participatif rigoureux. Ainsi, seules 11,3 % des notes proposées atteignent le statut Currently Rated Helpful (CRH) qui leur permet d’être visible par tous, ce qui montre la difficulté de parvenir à un consensus entre contributeurs. Pour garantir leur pertinence « l’algorithme d’évaluation des notes de la communauté tente explicitement de donner la priorité aux notes qui reçoivent des évaluations positives de la part de personnes ayant des points de vue différents » [source].
Les mécanismes de crowdsourcing qui permettent l’émergence de cette « sagesse des foules« , reposent, pour produire des résultats pertinents, sur l’agrégation des contributions individuelles. Ce principe, initialement observé par le mathématicien Francis Galton au XIXè siècle et approfondi par de nombreux chercheurs depuis, est devenu une pierre angulaire des mécanismes de recommandation algorithmique utilisés par les services en ligne. Sa mise en œuvre varie en fonction du degré d’implication des utilisateurs :
- Implicite : le système analyse les interactions des utilisateurs avec une plateforme pour affiner ses recommandations. C’est le cas des algorithmes d’Amazon, Spotify ou Vinted, qui adaptent leur contenu en fonction des préférences détectées.
- Explicite « simple » : l’utilisateur exprime directement une prédiction, un vote ou un pari, comme sur les plateformes de marchés prédictifs (Polymarket, PredictIt, Kalshi,…)
- Explicite « avancé » : les contributions impliquent l’apport de preuves factuelles de ce qui est affirmé. C’est le cas des notes de communautés.
Ainsi, au fil du temps, les Community Notes ont corrigé nombre de publications trompeuses de personnalités influentes et de grands titres de presse. Ironie du sort, certaines de ces corrections concernent des médias disposant de leur propre service de fact-checking.
Petit florilège :
Le site Community Notes Leaderboard agrège les tweets ayant reçu une note de communauté. Certains « twittos » se font bien sûr un malin plaisir à établir des classements à partir de ces données…
Attention, il ne s’agit pas toujours de fausses informations qui auraient été « corrigées » par la communauté. Il peut s’agir (parfois) d’un contexte ajouté afin de permettre une meilleure interprétation de l’information. Par ailleurs, il serait nécessaire de calculer des ratios en fonction de la portée et du nombre d’impressions de ces comptes X. Les tweets de Sandrine Rousseau entraînent plus de réactions que ceux d’un utilisateur lambda.
L’essor des notes de communauté et leur adoption probable par les réseaux sociaux incarne une mutation dans la manière dont l’information est vérifiée et régulée. En remettant la modération entre les mains d’un collectif d’utilisateurs plutôt que d’un petit groupe de personnes, elles marquent une rupture avec le modèle devenu classique du fact-checking centralisé. Par ailleurs, loin d’être une alternative hasardeuse, leur efficacité est aujourd’hui démontrée par plusieurs études attestant de leur rigueur et de leur impact sur la viralité des fausses informations.
Toutefois, si ce modèle semble plus démocratique et transparent, il n’est pas exempt de défauts, le principal étant le temps de réaction à une publication trompeuse. Par ailleurs, , son succès repose sur un équilibre ténu entre diversité des contributeurs et exigence de fiabilité.
La question est donc : sommes-nous prêts à laisser la vérité à l’intelligence collective (et à l’algo !). Mais la réponse n’a pas a être un oui inconditionnel. En effet, il est tout à fait imaginable de mettre en oeuvre des procédures de vérification à deux niveaux. Le premier destiné à traiter le flux massif d’information/désinformation/désinformation, géré par les notes de communauté. Le second, pris en charge par des fact-checkers qui viendraient en support lorsque certains sujets, trop subtils ou trop complexes pour les notes de communauté, doivent être traités.
Dès lors, la question n’est plus de savoir si les Community Notes sont une alternative viable au fact-checking traditionnel, mais plutôt comment les améliorer pour qu’elles deviennent un outil de référence, capable de s’imposer face aux défis que constituent des flux d’information toujours plus massifs et des faux contenus démultipliés par les IA génératives.
Une chose est certaine : la modération de l’information ne sera plus jamais la même.
Article publié initialement le 07/02/2025 sur LinkedIn


C’est quand même très curieux de citer comme source une vidéo provenant du média d’extrême droite Tocsin dans laquelle Fabrice Epelboin est accompagné du complotisme et plagiaire avéré par la justice Idriss Aberkane.
La documentation catastrophique sur la nature de ce média ne manque pas. Clémence Houdiakova, présentatrice de la matinale de Tocsin arrive de la radio d’extrême droite Radio Courtoisie, encore André Bercoff, que l’on ne présente plus.
Vraiment très curieux, pouvez-vous l’expliquer ? Un rapide coup d’oeil aux contenus proposés par cette chaine YouTube de « réinformation » permet de comprendre là ou l’on met le pieds. Je suis surpris…et déçu.
Bonjour,
Alors c’est assez simple en fait, et pas curieux du tout. Il s’agit de ne pas lâcher la proie pour l’ombre. La « proie » c’est Fabrice Epelboin, l’un des meilleurs connaisseurs de la technosphère US (et défenseur historique de l’open source). L’ombre c’est le média… Fabrice Epelboin est le même Fabrice Epelboin, avec la même pertinence, qu’il intervienne sur C dans l’air, LCP, Thinkerview ou … Tocsin. Dans mon métier, la veille stratégique (idem pour le renseignement), le médium n’a pas vraiment d’importance, ce qui compte c’est la source, soit l’humain qui a l’info, vraie ou pas, mais actionnable. La proie donc. Mais j’imagine que vous avec écouté ce qu’il avait à dire avant de commenter.
Bonjour Christophe,
Oui, les Community Notes sur X sont très majoritairement pertinentes. Mais on les voit peu souvent en proportion du nombre de fois où il faudrait en afficher.
Au final, les Community Notes ne neutralisent globalement pas les biais idéologiques du nouvel algorithme de X.com et les effets de meute/harcèlement.
https://news.sky.com/story/the-x-effect-how-elon-musk-is-boosting-the-british-right-13464487
Méthodologie : https://news.sky.com/story/how-sky-news-investigated-xs-algorithm-for-political-bias-13463916
https://slate.com/technology/2025/11/will-stancil-twitter-x-elon-musk-cyberbullying-social-media.html
De mon point de vue, c’est ce qu’on appelle un cache-sexe, tout comme la disponibilité en open source de l’algo.
Bonjour Emmanuel,
Merci pour l’étude Sky News, intéressante mais non dénuée de biais… Voici quelques faiblesses que j’y vois.
D’abord, l’article cite principalement des voix critiques de Musk (ex. : politiciens Labour et Lib Dems, experts comme Ned Mendez de 411 qui accuse explicitement le leadership de X). Peu de contre-arguments pro-Musk sont présentés, ça sent un peu le biais de confirmation dès le départ, mais passons.
Autre problème, l’échantillon est limité à neuf comptes sur seulement deux semaines en mai 2025, ce qui ne reflète pas l’expérience des utilisateurs réels avec des historiques d’interactions complexes.
Troisième pb que je vois ici, l’utilisation d’un LLM pour classer automatiquement 90 000 posts selon leur orientation politique et leur degré d’ »extrémisme ». Problème : ce qui est « toxique » pour un analyste « progressiste » (ex. : critique forte de l’immigration) pourrait être vu comme un débat légitime par un analyste conservateur. La méthodo indique que pour cette classification « extrême », l’IA est d’accord avec au moins deux humains dans seulement 63 % des cas, indiquant une marge d’erreur de 37 %, potentiellement due à des interprétations subjectives des critères comme le « langage toxique ». Ce n’est pas un échec total certes, mais ça me semble faible pour une étude qui se veut scientifique et tire des conclusions fortes (comme « 72 % des contenus extrêmes sont de droite »). L’IA pourrait « surévaluer » les contenus de droite comme extrêmes, parce que les critères subjectifs (et les humains qui les valident) penchent potentiellement vers la sensibilité « centre-gauche » propre à Sky News. On pourrait alors se demander si c’est X qui est biaisé, ou les critères d’analyse. Pour une objectivité plus objective, il faudrait des critères plus neutres, ou en tout cas plus transparents, et un accord IA-humain plus élevé. Sans parler du positionnement idéologique du LLM utilisé. Je n’ai pas le détail pour Gemini 1.5 Flash, mais ça m’étonnerait beaucoup qu’il s’éloigne de ses prédécesseurs à ce sujet… (cf. par exemple https://arxiv.org/pdf/2402.01789).
La méthodologie présentée (consultation d’experts) apporte une transparence louable, mais n’élimine pas franchement les risques de subjectivité. D’ailleurs, sauf erreur de ma part, l’étude ne paraîtra pas en peer-review.
Pour finir, les conclusions généralisent à l’ensemble de la plateforme sans comparaisons avec d’autres réseaux comme TikTok ou Facebook, et sans vérifier si le contenu « de droite » n’est pas simplement plus engageant naturellement en raison de tendances sociétales actuelles comme le relève par exemple ce post sous celui de Sky News annonçant l’enquête : https://x.com/Stucore1/status/1986395111530307854, qui suggère que X reflète la polarisation plutôt qu’il ne la fabrique (à vérifier bien sûr). Voir aussi à ce sujet cette étude https://journals.sagepub.com/doi/full/10.1177/14614448241262415 qui montre que les utilisateurs de droite publient plus sur toutes les plateformes que ceux de gauche, plus « sélectifs ». Il y a d’ailleurs d’autres failles de l’étude relevées dans ces posts, comme une potentielle hypocrisie si un biais inverse avait été trouvé sous l’ancien Twitter 🙂
Bonjour Christophe,
Je vous remercie pour la clarté de votre réponse. « Il s’agit de ne pas lâcher la proie pour l’ombre. La « proie » c’est Fabrice Epelboin, l’un des meilleurs connaisseurs de la technosphère US (et défenseur historique de l’open source). L’ombre c’est le média »
Voilà qui est très clair et utile et précieux pour moi. Aussi, je ne souhaite absolument pas remettre en cause la qualité de votre travail que je suis avec attention.
Bonjour Florent,
Cela ne me dérange pas que l’on remette en cause mon travail. La disputatio, alimentée d’arguments factuels, est le fondement de la recherche. C’est ainsi que l’on avance 🙂