La veille dans un environnement numérique mouvant

J’ai eu le plaisir de préfacer la nouvelle version du Guide pratique publié par Archimag, Outils et efficacité d’un système de veille paru en novembre dernier que vous pouvez commander ici .

 



Voici donc le texte en question que vous pouvez également télécharger au format PDF
sur Slideshare.

 

 

La veille dans un environnement numérique mouvant

 

Par Christophe Deschamps (www.outilsfroids.net)

Consultant & formateur en veille et gestion de linformation

Les pratiques de veille dans les organisations se sont profondément modifiées en une décennie. En remontant dans le temps on se souviendra que les plateformes de veille intégrées ont commencé à voir le jour entre 1997 et 2000, avec des outils comme Périclès de Datops, Information Miner dArisem ou encore Aperto Libro dInforama. Le coût de ces solutions les réservait cependant à des grandes entreprises. Parallèlement à ces outils apparaissait une gamme de logiciels abordables pour des PME ou des particuliers. Citons par exemple le métamoteur Copernic 1999 ou laspirateur de sites web eCatch Pro. Toutefois, les solutions qui rencontraient le plus de succès à lépoque étaient les agents dits « push », qui permettaient de recevoir de linformation sur son poste en fonction de profils personnalisés : MyYahoo, Net2One ou encore le logiciel Marimba. Entre 2001 et 2004, les outils de recherche et de veille sur le web continuent à se multiplier. Citons par exemple Ferret de Ferretsoft, ExpressSearch dInfoSeek, Kenjin dAutonomy, Alexa, C4U, A mesure quils envahissent les disques durs des professionnels de la veille et que ces derniers en découvrent les limites, une certaine désillusion apparaît et le terme dagents intelligents, souvent utilisé pour les qualifier, est à juste titre remis en cause. On commence par ailleurs à entrevoir lampleur de ce qui nest pas indexé par les moteurs de recherche, un « corpus » que lon nomme alors « web invisible » et les organisations, notamment privées, de comprendre quil sera désormais impossible de se passer doutils dautomatisation de la veille pour exploiter les quantités croissantes dinformations présentes sur internet.

Les moteurs des changements actuels

En septembre 2005 émerge le concept de « web 2.0 » qui désigne notamment les nouvelles pratiques visant à mieux rechercher et classer linformation issue du web. On parle de « crowdsourcing[1] » pour désigner lutilisation par un grand nombre dinternautes de services qui, dune part, récupèrent des données susceptibles daméliorer lexpérience utilisateur après agrégation (ex : les recommandations dAmazon), dautre part, de développer des pratiques collaboratives en mode réseau social. Les services en question (social bookmarking, réseaux sociaux , social news , microblogging) ont limmense avantage de permettre aux veilleurs de tirer parti de linformation surveillée par dautres. En effet, la deuxième innovation majeure relative au web 2.0 est lapparition des flux RSS, un système basé sur une simplification du langage XML, qui permet à lémetteur dencapsuler linformation quil diffuse dans des balises afin de mieux la structurer et au récepteur de sy abonner comme il le ferait avec une chaîne télévisée, via un agrégateur de flux RSS.

Sept ans plus tard, ce web 2.0, rebaptisé « web social », a profondément changé le paysage de la veille en mettant à disposition de chacun les outils lui permettant deffectuer sa veille (sur les moteurs de recherche classique, lactualité, les productions scientifiques,) dans le but de surveiller sa réputation numérique, de mieux comprendre une thématique, den suivre les évolutions et finalement dapprendre au quotidien. Tout le monde ne sest pas mis à faire de la veille, du jour au lendemain, mais les pratiques et les besoins informationnels ont évolué. Ainsi une étude menée par LExpress en 2011[2] nous apprend que 72% des français disent sinformer plus quil y a cinq ans, que 76% dentre eux considèrent linformation comme importante pour leur vie personnelle et 56% pour leur vie professionnelle (66% chez les moins de 34 ans). La possibilité de surveiller le web est donc devenue nécessité et ce nest dailleurs pas la seule étape du cycle de la veille impactée par ces changements puisquune une fois linformation repérée, il est souvent important de la rediffuser vers les membres de ses réseaux dans le but de la faire connaître, mais aussi de gagner en crédibilité sur ses thématiques de prédilection. Là encore les services issus du web 2.0 sont en première ligne avec par exemple la fonction « Jaime » de Facebook, le retweet de Twitter ou les services de curation.

Une troisième évolution contribue à ce profond renouvellement des usages, tant dans la surveillance que dans la diffusion de contenus. Il sagit de la progression des tablettes et smartphones. Une récente étude du cabinet Deloitte, indique quil sest vendu plus de ces terminaux dans le monde en 2011 que de PC classiques. Lorsquon sait que 50% des mobinautes affirment sen servir pour diffuser parfois ou souvent des informations sur les réseaux sociaux[3], on comprend que plusieurs étapes traditionnelles du métier de veilleur peuvent être « cannibalisées » par des métiers et fonctions transverses où le besoin de faire de la veille devient de plus en plus pressant : community managers, journalistes, communiquants, enseignants et chercheurs, chargés de R&D et bien sûr simples citoyens

Plus de sources, plus de données, plus dinformations

Revers de la médaille, la même étude de LExpress indique que, parallèlement à ce besoin dinformation, 76% des français se sentent submergés par elle (ce taux monte à 82% chez les 15-24 ans).

Le web fait émerger en permanence de nouvelles sources dinformation : médias traditionnels bien sûr (presse en ligne), mais aussi blogs, pages Facebook, services de journalisme citoyen, etc. Or, chacune delle peut devenir une source intéressante à monitorer. En effet, ce que lon doit comprendre lorsquon souhaite mettre le web sous surveillance, cest quon ne peut plus se limiter aux sources traditionnellement considérées comme fiables, pour la bonne et simple raison que linformation qui fait potentiellement la différence, le signal faible donc, peut très bien se trouver sur Twitter, Facebook ou Youtube : lavis dun expert, une vidéo révélant involontairement un mécanisme ou un process nouveau, un lien vers une étude mal indexée par les moteurs de recherche, une indiscrétion En ce sens, faire de la veille sur le web demande, notamment pour les documentalistes traditionnels, un changement détat desprit radical, puisquil faut substituer à la validation de la source la validation de linformation quelle produit. Le sentiment de sécurité fourni par les bases de données classiques ne peut exister sur le web car les sources ne sont pas sélectionnées par un tiers sur des critères de qualité, mais bel et bien par le veilleur qui est alors le seul à être en mesure de les juger. Cest donc dun système permettant dévaluer le niveau de risque que lon accepte de prendre en utilisant telle ou telle source dont on a besoin. En ce sens le veilleur évolue nécessairement dans un environnement informationnel insécure et doit faire avec. Dautant que les choses ne vont pas aller en saméliorant. Une étude du cabinet IDC parue en 2011[4] indique en effet que la quantité de données produite dans le monde est sur le point de doubler tous les deux ans et que, dici la prochaine décennie, la quantité de données gérées par les entreprises pourrait être multipliée par 50 Ce chiffre inclut tous les types de données classiques (actualités, images, sons, vidéos) mais aussi celles, plus granulaires et bien plus nombreuses, qui peuvent être exploitées statistiquement  une fois agrégées en « sets » : données météorologiques relevées automatiquement, positions géographiques transmises par puces RFID ou GPS, données publiques générées par les administrations et services publics (open datas), données que nous laissons individuellement dans les services en ligne ou applications de smartphones, etc. Ce phénomène que lon évoque depuis quelques mois sous le terme de big datas avait été annoncé dès 2007 par le chercheur en économie Ian Ayres dans son ouvrage « Super crunchers »[5]. Il y expliquait que lexpertise et lintuition seraient petit à petit remplacées par des modèles statistiques prédictifs car « champ après champ, lanalyse statistique découvre les relations cachées parmi des genres immenses et disparates dinformation ». Et cest bien là aussi lobjectif de la veille Dans ce contexte le veilleur qui souhaitera tirer parti des big datas afin de compléter ou déclairer les informations dont il dispose devra se transformer en professionnels des flux, capables grâce à de puissants logiciels de datamining dexplorer dénormes continent de données afin de les sonder, triturer, en détecter les irrégularités signalant lexistence de données discrètes, de signaux faibles, etc. Cest ici quentrent en jeu les interfaces graphiques de cartographie et de navigation dans linformation, seules susceptibles de permettre lexploration et la manipulation de cette masse de données mouvante afin de lui donner du sens et doptimiser de futures prises de décisions.

 Au final une spécialisation de plus dans le spectre fonctionnel déjà très large couvert par les professionnels de linformation.

Plus de moyens de surveiller le web

Corollaire de la multiplication des sources web pour la veille, celle toute aussi perturbante, des moyens à  mettre en uvre pour les surveiller. La typologie doutils a en elle-même peu évolué. On y retrouve les outils de surveillance de pages et sites web (monitoring), les flux RSS qui, disponibles depuis laube des années 2000, font désormais parti des « vieux » outils et les alertes par mots-clés sur les moteurs ou bases de données (type Google Alerts). Ce qui en revanche a changé cest la manière de les mettre en uvre. Le web social et les services qui le constituent ont en effet permis lémergence dune information dite « temps-réel », cest-à-dire émise en permanence par nimporte quel individu ou organisation via Twitter, Facebook, LinkedIn, Youtube, Il devient donc de plus en plus nécessaire de surveiller ce qui se dit sur ces réseaux de nous ou de nos organisations (e-réputation) afin de réagir en cas de crise ou de bad buzz, mais aussi ce qui se dit de nos concurrents et de ce queux-mêmes y disent (veille concurrentielle classique). Les praticiens de la veille stratégique ne sy sont pas trompés puisque 79% dentre eux disent surveiller les réseaux sociaux pour trouver de linformation relative à leurs concurrents, aux évolutions de leur secteur dactivité, aux tendances de consommation, etc[6].

Depuis trois ou quatre ans[7], de très nombreuses solutions ont donc vu le jour avec cet objectif ; Citons par exemple Sindup, Alerti, Mention, ou Alterian SM2. Les éditeurs traditionnels de plateformes de veille tels Digimind ou AMI Software ne sont dailleurs par en reste avec lajout dès 2008-2009 de briques de surveillance de médias sociaux. Si la veille sur le web se popularise depuis quelques années, force est de reconnaître que cest avant tout lié à cette indispensable gestion de la réputation numérique que nous évoquions dès 2006[8].

Ces solutions « algorithmiques » ne sont toutefois pas les seules. Plus innovantes sont les pratiques de veille se basant sur les individus. En effet, puisque le web social agrège les contenus granulaires que chacun y diffuse, il suffit de repérer via un sourcing approprié les utilisateurs de médias sociaux experts dans leurs domaines pour sabonner à leurs comptes et bénéficier ainsi de leur veille partagée. La validation de la source consistera alors à sassurer de la réelle expertise de linternaute. Quant à surveiller son compte, là encore cela ressemblera à ce que lon faisait déjà avec les flux RSS, mais de manière technologiquement transparente puisquintégrée dun simple clic sur « Follow », « Like » ou « Sabonner à » sur le profil de lexpert repéré. Dautres solutions, plus centralisées, existent dailleurs puisque les logiciels-clients de médias sociaux comme Tweetdeck ou Hootsuite permettent de suivre dans une interface unique les évolutions des comptes utilisateurs ou médias sociaux auxquels on est abonné, ainsi que de diffuser voire de multi-diffuser vers ces différents espaces. Surveiller les utilisateurs de médias sociaux experts dans leur domaine revient donc à mettre en place des filtres humains entre la masse informationnelle présente sur le web et nous.

Notons par ailleurs que tout est fait pour que ces experts semparent doutils qui leur permettront de diffuser le fruit de leur veille. Les services de curation, que lon peut qualifier de dispositifs de veille adaptés aux non-professionnels, font une entrée remarquée sur le web depuis 2010. Certains permettent par exemple de suivre des flux RSS habituels mais aussi des utilisateurs réseaux sociaux ou des regroupements dutilisateurs (listes Twitter) tout en mettant en uvre une démarche simplifiée par rapport à un agrégateur classique. Citons par exemple les services en ligne Scoop.it, Storify, ou Pinterest (pour les images) ou les applications pour smartphones telles que Flipboard, Pulse ou Feedly. La curation apporte des possibilités inédites autour de l’information : circulation, recommandations, partage, enrichissement, agrégation, capitalisation Lobjet « information », traditionnellement au cur des pratiques professionnelles des veilleurs, documentalistes et gestionnaires de connaissances change de mains, ou, plus exactement, le nombre de mains qui s’en emparent est multiplié.

 Plus de moyens de traiter linformation

Les pratiques de curation ne sont cependant pas lapanage du web puisquon les retrouve à lidentique dans les fonctionnalités offertes en interne par les réseaux sociaux dentreprise (Jamespot Pro, Knowledge Plaza, Yoolink Pro,). Cest dailleurs logique puisque les deux familles doutils sont directement inspirées de services de social bookmarking comme Delicious.

De fait, il devient possible à nimporte quel employé de partager facilement les résultats de sa veille quotidienne sur lintranet et de donner ainsi à voir son expertise en interne. Les RSE permettent toutefois daller beaucoup plus loin que le simple partage de favoris en proposant par exemple la création de communautés thématiques privées ou publiques. A partir de là il devient possible de proposer un autre mode de traitement de linformation issue de la veille, particulièrement adapté au temps réel et baptisé par son créateur Robert Clarke (un ancien analyste de la CIA) approche target centric[9]. Ici, les communautés de veille thématiques créées dans le RSE et dans lesquelles on incluera analystes et décideurs permettent aux trois parties prenantes de dialoguer au fil de leau autour de linformation collectée et pallient potentiellement aux faiblesses classiques dun dispositif de veille : manque de partage de linformation, difficulté à analyser linformation collectée et manque de compréhension des besoins informationnels des décideurs de la part des veilleurs et des analystes. Toutefois, pour que cela fonctionne il est nécessaire danimer ces communautés et les veilleurs ont ici un rôle important à jouer, traditionnel dailleurs puisque par un étonnant « retour vers le futur », ils retrouvent le rôle qui était déjà le leur avant larrivée du web, lorsque le métier était fait dentregent et de diplomatie et quil consistait avant tout à faire remonter linformation de réseaux de commerciaux ou de techniciens présents sur le terrain. Les RSE issus du web social sont potentiellement une solution pour réunifier ces deux espaces de la veille stratégique et offrent ainsi aux veilleurs de nouvelles opportunités de développement de leurs fonctions. Ces gains sont dailleurs reconnus puisque létude sur les RSE publiée par SerdaLAB en septembre dernier indique que le bénéfice principal ressenti par leurs utilisateurs est le partage de la veille (44%), à égalité avec lamélioration du travail collaboratif.

Plus de tout, est-ce trop ?

Le web social et laccroissement de la mobilité ont profondément modifié les pratiques de veille ainsi que le champ dintervention des veilleurs dans les organisations. Ils se retrouvent confrontés à plus de collaborateurs qui mettent en uvre des pratiques de veille sans être pour autant des professionnels de linformation. Ils découvrent de nouveaux champs dinvestigation avec les big datas et de nouvelles possibilités de sources intéressantes à surveiller avec les médias sociaux. Ils entrevoient la possibilité de gérer la remontée et lanalyse des informations différemment avec les RSE. Cest beaucoup de changements auxquels il faut sadapter mais est-ce trop ? Chaque changement est à la fois synonyme de menaces et dopportunités et si lon ne continue pas à prendre les choses en mains en semparant de ces nouveaux outils, en canalisant au mieux les nouveaux espaces informationnels, en intégrant ces nouvelles pratiques afin de les mettre à notre service, ne risque ton pas finalement de voir nos métiers se diluer ? Le métier de veilleur est en évolution permanente. On peut le regretter et avoir envie de se poser un moment mais, ici plus quailleurs, cest utopique car sarrêter cest reculer

 



[1] Que nous traduisons généralement par lexpression « foules ressources »

[2] Enquête sur les nouvelles pratiques de consommation de linformation des français. LExpress Iligo. Mars 2011

[3] Cf. étude LExpress

[4] IDC Extracting value from chaos – 2011

[5] Ian Ayres, Super crunchers, Why thinking-by-numbers is the new way to be smart, Bantam, 2007

[6] Baromètre des pratiques de veille 2012 – Digimind

[7] Voir le tableau comparatif des solutions de e-réputation proposé par Camille Alloing : http://www.tablefy.com/compare/2652/e-réputation

[8] Cf. Christophe Deschamps, Lindispensable gestion de la réputation numérique. ZDnet. Février 2006. http://www.zdnet.fr/blogs/ils-ont-blogue/l-indispensable-gestion-de-la-reputation-numerique-39600489.htm

[9] Intelligence analysis, a target centric approach, CQ Press, 2003

Parmi les auteurs de ce guide vous retrouverez des auteurs de blogs bien connus comme Frédéric Martinet, Camille Alloing, Terry Zimmer et Jérôme Bondu

 

Laisser un commentaire