OUTILS FROIDS
  • Société
    • OF Conseil
    • Christophe Deschamps
  • Prestations
    • Formation
    • Conseil
    • Conférences
  • Publications
    • Livres
      • Le nouveau management de l’information. La gestion des connaissances au coeur de l’entreprise 2.0.
      • La boîte à outils de l’intelligence économique
      • Organisez vos données personnelles. L’essentiel du PKM
    • Base de connaissances
    • Newsletter hebdomadaire d’Outils Froids
    • Les découvertes hebdomadaires d’Outils Froids
  • Contact
6 novembre 2025 par Christophe Deschamps

Informer en 2025 (V-a): notes de communauté, quand l’intelligence collective rencontre l’algo…

Informer en 2025 (V-a): notes de communauté, quand l’intelligence collective rencontre l’algo…
6 novembre 2025 par Christophe Deschamps

« You are the media now ! »

Avec ces mots postés au lendemain de l’élection de Trump, Elon Musk défendait une vision selon laquelle l’information ne serait plus contrôlée par quelques grands médias (les « legit medias »), mais façonnée collectivement. Depuis son rachat de Twitter en 2022, il a en effet cherché à concrétiser cette idée en misant sur une modération décentralisée, incarnée par les Community Notes, un système qui repose sur l’intelligence collective et une transparence revendiquée.

Mark Zuckerberg, pour des raisons que nous n’aborderons pas ici (mais que Fabrice Epelboin, comme à son habitude, decrypte très bien) a annoncé récemment que Facebook et Instagram allaient abandonner progressivement le fact-checking professionnel au profit d’un modèle inspiré des Community Notes (pas pour l’UE). Cette décision a immédiatement suscité un tollé. Certains dénoncent un choix dangereux qui risque d’accélérer la propagation de la désinformation, au point que Joe Biden lui-même l’a qualifié de « honteuse » et « contraire aux valeurs démocratiques ». D’autres, en revanche, y voient une adaptation nécessaire des politiques de modération face à un paysage informationnel où le contrôle de la vérité par un cercle restreint, aux modalités de sélection opaques, évoque de plus en plus le Miniver d’Orwell.

Mais alors que valent les Community Notes ? Sont-elles une alternative crédible à celles-ci ? Peuvent-elles être une réponse suffisante à la crise de confiance qui frappe les médias traditionnels et les réseaux sociaux ?

Les Community notes : une efficacité prouvée

Souvent perçues comme une alternative risquée au fact-checking, les Community Notes se révèlent pourtant d’une efficacité remarquable. Contrairement aux craintes évoquées, plusieurs études suggèrent qu’elles offrent un contrôle de l’information au moins aussi rigoureux que le factchecking.

Un taux d’exactitude élevé

Ainsi, une étude de l’université de Californie publiée en avril 2024 a analysé 657 Community Notes publiées sur X à propos du Covid-19 et a relevé un taux d’exactitude de 97,5 %, avec 87 % de ces notes s’appuyant sur des sources de haute qualité. Des conclusions qui contredisent l’idée selon laquelle une modération participative serait nécessairement plus sujette aux erreurs ou à la manipulation.

Une autre étude, menée en 2024 par des chercheurs français, montre également que, contrairement aux étiquettes d’avertissement apposées par les plateformes (par exemple Bluesky), les Community Notes fournissent un contexte détaillé expliquant pourquoi une information est trompeuse, ce qui les rend plus convaincantes pour les utilisateurs. Ainsi, une troisième étude récente, menée auprès de 1800 Américains, révèle que les Community Notes sont perçues comme plus crédibles que les corrections de fact-checkers, précisément parce qu’elles exposent leurs arguments de manière transparente et documentée. Ces résultats rejoignent ceux d’une étude menée par Cornell Tech concernant l’initiative Cofacts à Taïwan, qui a démontré que les dispositifs basés sur le crowdsourcing, pouvaient être plus rapides et plus complets que les vérifications professionnelles.

Un impact mesurable sur la viralité

Mais l’influence des Community Notes ne se limite pas à la correction de l’information : elles modifient également le comportement des utilisateurs. Ainsi, lorsqu’une note est ajoutée à un tweet, le nombre de retweets diminue de près de 50 %, et la probabilité que l’auteur supprime son propre message augmente de 80 % [Ibid.].

Enfin, une dernière étude, pas encore publiée, démontre qu’exposer les utilisateurs à des Community Notes réduit la diffusion de messages trompeurs de 60 % en moyenne. Toutefois, leur efficacité est limitée par un facteur temps : alors que 50 % des retweets d’un message surviennent dans les cinq heures suivant sa publication et 80 % dans les seize heures, le délai moyen de publication d’une note est de 15,5 heures. Un décalage temporel qui limite l’impact immédiat du dispositif et laisse aux tweets trompeurs le temps de faire leur œuvre. Malgré cela, les Community Notes parviennent tout de même à ralentir la viralité des fausses informations, réduisant leur diffusion de 16 à 21 %. Notons que ce temps de réaction reste en moyenne très inférieur à celui d’une équipe de fact-checking, nécessairement limitée en nombre et devant par ailleurs sélectionner les sujets qu’elle va vérifier.

Un système ouvert, mais exigeant

Le fonctionnement même de l’algorithme contribue à cette fiabilité. En effet, contrairement aux systèmes de fact-checking traditionnels, susceptibles d’opacité, notamment dans la sélection des sujets à « débunker », celui des Community Notes est en open source, ce qui signifie que n’importe quel développeur peut examiner son code et en déduire le fonctionnement précis. Cela constitue probablement une surprise pour beaucoup de lecteurs après tout ce que l’on a pu entendre à ce sujet ces dernières semaines.

Tweet de présentation de l’algorithme de Notes de communauté, par Christopher Stanley, son développeur.

Loin d’être un simple filtre algorithmique, le système repose donc sur un mécanisme participatif rigoureux. Ainsi, seules 11,3 % des notes proposées atteignent le statut Currently Rated Helpful (CRH) qui leur permet d’être visible par tous, ce qui montre la difficulté de parvenir à un consensus entre contributeurs. Pour garantir leur pertinence « l’algorithme d’évaluation des notes de la communauté tente explicitement de donner la priorité aux notes qui reçoivent des évaluations positives de la part de personnes ayant des points de vue différents » [source].

Les mécanismes de crowdsourcing qui permettent l’émergence de cette « sagesse des foules« , reposent, pour produire des résultats pertinents, sur l’agrégation des contributions individuelles. Ce principe, initialement observé par le mathématicien Francis Galton au XIXè siècle et approfondi par de nombreux chercheurs depuis, est devenu une pierre angulaire des mécanismes de recommandation algorithmique utilisés par les services en ligne. Sa mise en œuvre varie en fonction du degré d’implication des utilisateurs :

  • Implicite : le système analyse les interactions des utilisateurs avec une plateforme pour affiner ses recommandations. C’est le cas des algorithmes d’Amazon, Spotify ou Vinted, qui adaptent leur contenu en fonction des préférences détectées.
  • Explicite « simple » : l’utilisateur exprime directement une prédiction, un vote ou un pari, comme sur les plateformes de marchés prédictifs (Polymarket, PredictIt, Kalshi,…)
  • Explicite « avancé » : les contributions impliquent l’apport de preuves factuelles de ce qui est affirmé. C’est le cas des notes de communautés.

Ainsi, au fil du temps, les Community Notes ont corrigé nombre de publications trompeuses de personnalités influentes et de grands titres de presse. Ironie du sort, certaines de ces corrections concernent des médias disposant de leur propre service de fact-checking.

Petit florilège :

Le Monde se trompe dans ses calculs (image cliquable)
Libération a du mal avec les ordres de grandeur (image cliquable)
Greenpeace (et France Info) rattrapés par la patrouille (image cliquable)

Le site Community Notes Leaderboard agrège les tweets ayant reçu une note de communauté. Certains « twittos » se font bien sûr un malin plaisir à établir des classements à partir de ces données…

Cliquez pour accéder à l’étude (thread)

Attention, il ne s’agit pas toujours de fausses informations qui auraient été « corrigées » par la communauté. Il peut s’agir (parfois) d’un contexte ajouté afin de permettre une meilleure interprétation de l’information. Par ailleurs, il serait nécessaire de calculer des ratios en fonction de la portée et du nombre d’impressions de ces comptes X. Les tweets de Sandrine Rousseau entraînent plus de réactions que ceux d’un utilisateur lambda.

L’essor des notes de communauté et leur adoption probable par les réseaux sociaux incarne une mutation dans la manière dont l’information est vérifiée et régulée. En remettant la modération entre les mains d’un collectif d’utilisateurs plutôt que d’un petit groupe de personnes, elles marquent une rupture avec le modèle devenu classique du fact-checking centralisé. Par ailleurs, loin d’être une alternative hasardeuse, leur efficacité est aujourd’hui démontrée par plusieurs études attestant de leur rigueur et de leur impact sur la viralité des fausses informations.

Toutefois, si ce modèle semble plus démocratique et transparent, il n’est pas exempt de défauts, le principal étant le temps de réaction à une publication trompeuse. Par ailleurs, , son succès repose sur un équilibre ténu entre diversité des contributeurs et exigence de fiabilité.

La question est donc : sommes-nous prêts à laisser la vérité à l’intelligence collective (et à l’algo !). Mais la réponse n’a pas a être un oui inconditionnel. En effet, il est tout à fait imaginable de mettre en oeuvre des procédures de vérification à deux niveaux. Le premier destiné à traiter le flux massif d’information/désinformation/désinformation, géré par les notes de communauté. Le second, pris en charge par des fact-checkers qui viendraient en support lorsque certains sujets, trop subtils ou trop complexes pour les notes de communauté, doivent être traités.

Dès lors, la question n’est plus de savoir si les Community Notes sont une alternative viable au fact-checking traditionnel, mais plutôt comment les améliorer pour qu’elles deviennent un outil de référence, capable de s’imposer face aux défis que constituent des flux d’information toujours plus massifs et des faux contenus démultipliés par les IA génératives.

Une chose est certaine : la modération de l’information ne sera plus jamais la même.

Article publié initialement le 07/02/2025 sur LinkedIn

Error happened.
Spread the love
        
Article précédentComment (et pourquoi) bien chercher sur Google ? Partie 2 : les opérateurs de ciblage

Laisser un commentaire Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

RETROUVEZ-MOI SUR

CHRISTOPHE DESCHAMPS

IMG_8825_3Consultant et formateur en veille stratégique, intelligence économique et mindmapping depuis 15 ans

Articles récents

Informer en 2025 (V-a): notes de communauté, quand l’intelligence collective rencontre l’algo…6 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 2 : les opérateurs de ciblage5 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 1 : les opérateurs booléens4 novembre 2025

Catégories

  • Concepts
  • Infos
  • Méthodologie
  • Non classé
  • Outils
  • Premiers pas
  • Réflexions
  • Ressource
  • Revue de liens

Étiquettes

AlertesMotsCles analyser l'information chatGPT Collaborer ConserverLeWeb ContentDiscovery Curation Dataviz Diffuser l'information Désinformation ExtensionNavigateur Facebook GestionVideos Google HtmlToRss Informer Inoreader Intelligence artificielle intelligence économique IST knowledge management Lecture LLMs MediasSociaux mindmapping MonitoringMediasSociaux MoteurDeRecherche OSINT Outil collaboratif Outils Froids personal knowledge management PKM Presse Présenter l'information RecherchePersonne RechercheWeb RevueDeLiens RSS SurveillancePagesWeb SurveillanceSourcesWeb Tutoriel Twitter Veille VeilleVideo Video

DERNIERS TWEETS

Tweets by crid

Recevez les nouveaux articles de ce blog

Informer en 2025 (V-a): notes de communauté, quand l’intelligence collective rencontre l’algo…6 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 2 : les opérateurs de ciblage5 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 1 : les opérateurs booléens4 novembre 2025

Abonnez-vous à notre newsletter

mentions-legales

Articles récents

Informer en 2025 (V-a): notes de communauté, quand l’intelligence collective rencontre l’algo…6 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 2 : les opérateurs de ciblage5 novembre 2025
Comment (et pourquoi) bien chercher sur Google ? Partie 1 : les opérateurs booléens4 novembre 2025

Catégories

  • Concepts
  • Infos
  • Méthodologie
  • Non classé
  • Outils
  • Premiers pas
  • Réflexions
  • Ressource
  • Revue de liens