Intelligence économique Tag

De façon purement rhétorique, il est aisé de comprendre pourquoi la lutte contre une fake news est un leurre : il est impossible d’empêcher quelqu’un de croire en une information (cf. les débats qui ont fait suite au concept de « déradicalisation » pour aboutir in fine à la non pertinence de cette notion). En revanche, il est possible d’empêcher des sources de diffuser une information (qu’elle soit d’ailleurs vraie ou fausse) : cela constitue en soi une forme de censure. Il est également possible de supprimer des canaux de communication vers les tiers, ou même de noyer l’information parmi des informations contradictoires de même nature afin d’en faire perdre la puissance de persuasion.

En tant que professionnels de l’information, nous nous devons d’avoir les idées claires sur ce que nous manipulons au quotidien. Cet article a pour but de mieux comprendre comment considérer les informations qualifiées de « fake news » ou « infox », alors que cette notion est souvent employée pour disqualifier un adversaire plutôt que pour rétablir une vérité.

Cet article vise également à expliquer en quoi l’information n’a de valeur que parce que celle-ci lui est attribuée par le récepteur. Celui-ci dispose de sa culture (scientifique et non scientifique), ses croyances (idéologiques ou religieuses) et ses biais cognitifs pour valider ou non ladite information.

Internet a brouillé les pistes

La théorie de la communication désigne comme information le message qui transite entre un émetteur et un récepteur par le biais d’un canal de transmission.

Internet est un canal particulier, puisqu’il constitue une plateforme d’échange d’informations qui ne fait a priori pas de distinction entre les différents statuts des informations qui sont véhiculées, de même qu’une route n’est pas capable d’analyser quels sont les véhicules qui l’empruntent. Ainsi des informations de diverses natures pourront librement se diffuser : faits, théories scientifiques, opinions, avis, humeur, sentiment, hypothèses, connaissances, croyances, arguments étayés, arguments de « bon sens », propositions commerciales, statistiques, etc.

Par construction, Internet ne permet pas d’affecter une « métadonnée » de statut (à savoir de catégoriser parmi des types d’informations possibles) à l’information qui y transite. C’est donc au niveau de la personne qui reçoit l’information, et quelquefois du site qui met à disposition l’information, que ce statut est attribué, plus ou moins consciemment. Mais compte tenu de la complexité des informations qui sont en jeu, et quel que soit son niveau d’éducation, il est souvent très difficile de distinguer clairement un fait d’une autre catégorie d’information, dès lors que l’on n’est pas en prise directe ou témoin de celui-ci. Par ailleurs, qu’est-ce qu’un fait ? La proposition : « Flat Earth Society pense que la terre est plate » est un fait (on ne peut pas démontrer qu’ils ne le pensent pas et leur croyance est probablement souvent de bonne foi), alors que la proposition « La terre est globalement sphérique même si aplatie aux pôles » est un autre fait. Ce qui différentie ces deux propositions est que la première porte sur une opinion alors que la seconde porte sur une vérité scientifique issue d’un protocole. Mais dans les deux cas, c’est celui qui reçoit l’information qui va accorder ou non du crédit à la proposition globale.

La source et le recoupement

Se pose nécessairement la question du degré de confiance que l’on peut avoir dans l’information. Deux niveaux sont alors utilisés pour consolider cette confiance, bien connus des milieux traditionnels du Renseignement : la confiance dans la source d’information et la confiance dans l’information en tant que telle.

La confiance dans la source d’information repose le plus souvent sur une position sociale de la source : à ce stade, il n’est pas question de vérité mais d’autorité. Ainsi, le récepteur de l’information accordera son crédit à l’émetteur de façon plus ou moins inconditionnelle de par l’expérience des informations précédemment transmises et qui se sont révélées plausibles à l’usage. Dans le cas d’une croyance, on a affaire à une autorité religieuse ou idéologique et l’information sera d’autant plus plausible qu’elle consolide le système de pensée (ou théorie) qui abonde dans le sens de cette croyance.

Le deuxième aspect est l’information pour elle-même, qui peut être vraie même si la source est honnie. Ainsi, « ce n’est pas parce qu’Hitler a dit que l’Angleterre est une île que l’Angleterre n’est pas une île » : même des leaders d’opinion les plus contestables ne sont pas à l’abri d’émettre des vérités ! Pour appréhender la véracité d’une information, deux moyens sont possibles : aller la vérifier par soi-même (mais cela suppose des moyens logistiques et du temps) ou la recouper par d’autres sources primaires (les sources primaires sont celles ayant été en prise directe ou témoin de l’information, les sources secondaires sont celles qui ont relayé celle-ci, en faisant confiance à la source primaire). Et il convient de ne pas tomber dans le piège suivant : recouper une information par des sources secondaires issues d’une unique source primaire : c’est ce qui s’est produit lors la pseudo identification de Xavier Dupont de Ligonnès en Angleterre en octobre 2019 : la source primaire, une police locale, n’a pas été mise en doute par la plupart des medias pris dans une course au scoop (voir ICI).

Les opinions, les croyances, les théories du complot et l’esprit critique

Qu’on se le tienne pour dit : l’esprit humain, et a fortiori son intelligence, n’ont jamais eu vocation à rechercher la vérité pour elle-même. Les mécanismes cérébraux tendent vers un but unique : augmenter sa zone de confort, qu’il soit physiologique, psychologique ou matériel. Cela peut se traduire également par augmenter sa sphère de pouvoir, étant entendu qu’elle est en soi vecteur de confort. Les stratégies que le cerveau met au point peuvent s’affranchir des réalités (qui du reste ne sont pas toutes connues) pour établir un récit logique. Par exemple, il n’est pas rare que des enfants culpabilisent du fait que leurs parents se séparent, quand bien même ils ne sont pas en mesure de connaitre les raisons profondes de la séparation. Ils retournent donc la responsabilité vers eux-mêmes car ils sont à leurs propres yeux la seule clé explicative de la disruption de la continuité de la vie familiale, ayant pu à certains moments provoquer de la colère chez leurs parents. C’est un schéma de pensée qui, s’il peut être douloureux, n’en est pas moins justifié dans l’optique de préserver son intégrité psychique et de donner un sens à ce qui arrive compte tenu des éléments dont on dispose.

Ce que l’on nomme souvent « théories du complot » relève du même processus : relier et interpréter des faits réels ou supposés pour proposer une vision d’une histoire en cours. A ce stade, il faut néanmoins préciser que les complots existent et ont existé dans l’Histoire : il est arrivé que des minorités se soient entendues pour imposer des politiques à des majorités. On a d’ailleurs récemment fait référence à de nombreuses reprises aux accords de Sykes-Picot (à l’origine du tracé de frontières du Proche Orient pour délimiter des zones d’influence). Dans le monde de l’intelligence économique, il est souvent constaté que les Etats-Unis font en sorte d’avoir des collusions fortes entre services de renseignement d’Etat, entreprises et administrations pour s’approprier des entreprises étrangères. Cela ne pourra cependant jamais être formellement prouvé, puisque les éléments cruciaux sont du domaine des secrets d’Etat : aussi, les récits qui en sont fait peuvent s’apparenter à des « théories du complot ». L’exemple d’Alstom cédé pour sa partie stratégique à General Electric est à présent bien connu, notamment grâce à Frédéric Pierucci qui a pu analyser de l’intérieur les processus en jeu, ayant été lui-même l’objet de pressions de la part du Department Of Justice américain dont le but n’était probablement pas de faire émerger la seule Justice. Mais encore une fois, il est difficile de le prouver selon un protocole scientifique.

Il ne faut pas croire que les théories du complot sont l’apanage de « autres ». Sur l’exemple de l’épidémie du COVID-19, les chinois comme les occidentaux se sont rejetés la balle de la responsabilité de l’origine du virus. Le 13 mars 2020, l’Express titrait que « Pékin accuse sans preuve les Etats-Unis d’avoir apporté le virus en Chine » (ICI), alors que le 15 mars 2020, BFM relayait : « Die Welt [l’un des plus grands quotidiens allemands] accuse Trump de vouloir s’accaparer un éventuel vaccin juste pour les États-Unis » (ICI). Il faut ainsi remarquer à ce stade que dans les deux cas, les preuves manquent tout autant mais que le style du récit est différent : dans le premier cas, il s’agit d’une manœuvre grossière du gouvernement chinois, dans le second cas, on se base sur des rencontres dont on ne connait pas la teneur pour faire des suppositions.

Quid du fact checking (vérification des faits) ?

La population mondiale et a fortiori occidentale atteint des niveaux d’éducation sans précédents dans l’histoire de l’humanité (34% de la population française est diplômée de l’enseignement supérieur, même si cela ne veut pas dire qu’elle est supérieure en dignité…). Mais cela ne signifie pas que les gens sont par principe critiques vis-à-vis de l’information qu’ils reçoivent. En effet, la masse d’informations disponible ayant particulièrement augmenté avec les technologies, alors que le temps disponible pour les traiter ainsi que la configuration du cerveau n’ont pas subi la même trajectoire. Par ailleurs, même sans parler d’informations délibérément fausses, même les moins naïfs peuvent se faire avoir par des trolls et canulars. Le fact checking s’est au début défini comme une méthode de journalistes pour vérifier des faits, dans le but qu’eux-mêmes ne soient pas « intoxiqués » par des faits « alternatifs ».

Autre piège dans lequel il ne faut pas tomber, et dont le COVID-19 a illustré la réalité : la bataille d’experts. Les avis contradictoires font partie de la parole publique et ne doivent pas être considérés comme des « fake news »  par les parties adverses. A une échelle mondiale, les organismes faisant autorité en matière de santé publique sont au moins aussi nombreux que les pays. Aussi, l’article de CheckNews, service de fact checking du quotidien Libération « Covid–19 : Pourquoi plusieurs pays européens contredisent-ils la mise en garde d’Olivier Véran contre l’ibuprofène ? » (ICI) présente un débat que personne ne peut arbitrer à ce stade étant donné qu’il s’agit d’avis divergents d’experts.

De nombreux médias ont mis au point des politiques de fact checking. L’AFP informe sur ses techniques (ICI) reposant sur des règles déontologiques et des outils techniques du web. Google News Initiative, sur lequel nous avions fait un billet, met à disposition de tout un chacun des outils de vérification basés sur le web.

Cela dit, il faut être conscient des effets pervers de certains procédés qui se réclament fact checking. Dans cette veine, le journal Le Monde propose le Decodex (ICI) : il s’agit d’un moteur de recherche de sites ou d’extensions de navigateur qui peuvent s’installer sur Chrome ou Firefox et qui ne proposent pas de vérifier des faits, mais de qualifier des sources. Dans le cas des extensions, elles attribuent un code couleur de confiance aux sites Internet sur lesquels les internautes consultent de l’information. Le problème est que cette méthode ne permet pas de démêler le vrai du faux, mais juste de « blacklister » des sites, puisqu’un site non approuvé peut tout à fait énoncer des faits véridiques, comme un site approuvé peut énoncer des « fake ». Il semble donc que l’initiative Decodex serve davantage à positionner Le Monde comme garant des « bonnes » sources d’information, avec un conflit d’intérêt extrêmement problématique : le journal serait alors juge et partie. Il semble que CheckNews de Libération soit plus honnête en donnant des réponses de journalistes aux questions des abonnés au cas par cas après enquête.

Conclusion : on ne peut faire l’économie de s’éduquer au traitement de l’information

Il est clair que l’émetteur de l’information, qu’il en soit à l’origine ou qu’il en soit un relai, a une intention dans le fait de diffuser : ce n’est pas juste « informer », mais bien plus souvent créer ou partager une émotion : peur, dégoût, colère, envie, joie, etc. Or si l’on souhaite conserver un rapport honnête vis-à-vis de l’information, notamment pour l’utiliser dans le cadre d’une analyse, la seule question qui devrait nous tarauder est la suivante : est-elle vraie ou non ?

Il est notable que dans les affaires mêlant le site Wikileaks et son fondateur Julian Assange, et qui constituent un véritable feuilleton depuis 2010, très peu de sujets ont évoqué la véracité et les implications des informations révélées par rapport au sujet tellement secondaire « Julian Assange est-il quelqu’un de bien ?». Car quand bien même ce ne serait pas le cas, l’Intérêt Public sera toujours concerné par la seule question : ce qui a été révélé par Wikileaks, est-ce vrai ou non ?

Aussi, et comme nous l’avons vu, les pièges sont nombreux pour atténuer les effets d’informations, masquer leurs implications ou dévier leur intérêt. Quels que soient les artifices techniques que l’on place entre une information brute et un récepteur de cette information, il est important d’émanciper chacun de la naïveté. L’éducation doit demeurer permanente à mesure que la complexité des canaux d’information et des systèmes de transmission évolue.

Mais la bonne nouvelle est qu’il suffit au final de respecter quelques principes simples : bien distinguer la source d’information de l’information brute. Et arbitrer entre le degré de confiance que l’on peut accorder à la source avec le niveau de recoupement qu’on peut obtenir pour l’information brute par rapport à une source primaire. Et il faut impérativement procéder par ces deux approches simultanément pour tenter de s’approcher de la vérité.

 

L’Union Européenne a-t-elle une réaction à la hauteur de l’enjeu ?

 

La tension s’affiche au grand jour entre le géant du web et les éditeurs de presse écrite en Europe. Tiraillés entre la nécessité de voir leurs contenus indexés par Google et la volonté de valoriser leurs contenus, ces derniers ont choisi le terrain juridique pour faire valoir leurs prétentions. La directive européenne sur le droit d’auteur de 2019 en est la dernière illustration. Sur le papier, les « règles du jeu » changent, mais seront-elles opérantes sur le « terrain de jeu » de l’information grand public du futur ?

  • Qu’est ce que la Google News Initiative ?

Née en 2015, la Google News Initiative (GNI) a été lancée à une échelle importante en 2018 par Google. Par ce concept, la firme californienne souhaite mettre à disposition un package d’outils pour travailler avec des médias ou des journalistes indépendants (pigistes et reporters), mais aussi tous ceux qui voudraient vivre de l’écriture d’articles même s’ils n’ont pas de carte de presse. Certains des éléments de la suite logicielle que constitue la GNI sont déjà en service (comme News Consumer Insights, utilisé notamment par BuzzFeed), et d’autres en développement sur des plateformes open-source (par exemple sur GitHub). 300 millions de dollars seront alloués pour le projet, répartis sur 3 ans.

Faut-il voir dans ce projet la réponse de Google à une volonté, plus ou moins ouvertement affichée, de « dégoogliser » l’Internet européen ? De fait, l’épisode de la directive sur les nouvelles règles du droit d’auteur, qui a été approuvée tout récemment par le Parlement Européen, pourrait paraitre désuète à peine entrée en vigueur à l’aune de l’ambition de Google. En effet le projet consiste ni plus ni moins qu’à rendre captifs des plateformes Google, les nombreux potentiels producteurs de contenus informatifs situés dans toutes les strates de la société civile, y compris les plus locales. La granularité de la connaissance des sociétés pourrait alors devenir beaucoup plus fine.

  • Les médias européens : entre défense d’intérêts et absence d’une vision claire du cybermonde

Au niveau européen, les lignes bougent : la directive votée par le parlement le 26 mars 2019 prévoit un renforcement du droit d’auteur pour le contenu en ligne, avec pour conséquence de rendre illégal le « copier-coller », excédant une accroche, de contenus dont on n’est pas l’auteur. Il semble d’ailleurs que la France souhaite légiférer dès cet été pour transcrire le texte en droit Français. Cette directive a d’ailleurs été fortement contestée par les tenants de la neutralité du net, y voyant un dispositif de mise en place d’une censure apriori par des opérateurs privés (et non a posteriori par une instance judiciaire). Et, alors qu’il est illusoire, au vu des volumes téléchargés,de considérer qu’une décision humaine puisse décider si des contenus mis en ligne violent ou non le droit d’auteur, il semblerait que les outils techniques qui devraient s’en charger ne sont pas encore au point. Notamment pour reconnaitre une œuvre d’un de ses pastiches.

Dans la (petite) foulée de cette directive, un rapport commandé en 2017 a été rendu public le 28 mars 2019 : « Towards European Media Sovereignty » (Vers une souveraineté médiatique européenne). Faisant référence à la GNI, ce rapport précise dans ses propositions : « Bien que nous apprécions l’initiative de Google, son intelligence et sa facilité d’utilisation, elle soulève de réels problèmes pour de nombreuses entreprises, car elles dépendent de plus en plus de Google (distribution, publicité, mesure d’audience, recherche et développement). Nous estimons l’investissement public nécessaire pour diffuser les innovations dans le secteur à environ 1 milliard d’euros pour les 5 prochaines années. Ce fonds pourrait être axé sur les technologies d’analyse des données, l’intelligence artificielle, la blockchain, les neurosciences et le secteur des médias. »

A ce stade, force est de constater une différence de fond dans la formulation des stratégies ainsi que dans les moyens alloués. Dans le cas de Google, on a affaire à un projet de captation de l’information et de l’informateur à la base, avec une transformation souhaitée du métier de pigiste, qui se verrait proposé un panel de services au plus près de ses besoins. Pour l’UE, la stratégie se conjugue au conditionnel, avec quelques mises à disposition de financements. Aussi, l’UE investira dans de la technologie tous azimuts tandis que Google investira dans des moyens opérationnels articulés placés directement sur la chaine de valeur de l’information qui sera médiatisée par ses propres canaux.

Et si Google News Initiative devenait aussi incontournable pour le journaliste que Google pour l’internaute ?

Entrons à présent dans les ressorts de la Google News Initiative (GNI). Il semble que cette suite d’outils serait, dans un avenir proche, apte à transformer tous ceux qui le souhaitent en pigistes/journalistes, c’est-à-dire en personnes qui génèrent des revenus en fonction d’articles qu’ils publient. Google pourrait alors devenir le premier éditeur de presse au niveau mondial, mais au-delà de ça, il pourrait surtout acquérir une connaissance sans précédent du temps présent.

  • Ubériser le journalisme avec Google News Initiative ?

Il existe, à n’en pas douter, une puissance de l’outil Google News Initiative, qui capitalise sur de nombreux logiciels mis en place ou rachetés par la firme : il permet au journaliste/blogueur de jouer (car l’aspect ludique est indéniable) avec les données, les images, les outils de recoupement de l’information. A titre d’exemple, la recherche de l’antériorité d’une image peut donner lieu à l’invalidation d’un post d’un réseau social s’appuyant de façon fallacieuse sur l’image en question.

Par ailleurs, Google propose à qui veut s’y mettre une formation en ligne, bien faite (même si pour l’heure plusieurs modules ne sont pas opérationnels). On prend conscience de deux éléments singuliers : elle est courte (3 modules à suivre sur environ 4h30 au total), exhaustive : elle ne se limite pas au traitement de l’information mais permet de comprendre comment monétiser un travail diffusé sur le web. De plus, l’un des modules comprend la visualisation de données, permettant au non expert en data-design de rendre accessible l’interprétation de données statistiques.

Avec de tels outils, n’importe qui peut prétendre manipuler de l’information et la valoriser, mais en restant dans une sphère Google. Reste seulement à produire des articles dignes d’intérêt pour générer du clic sur les publicités qui seront associées…

Et pour consolider sa position, Google travaille également de concert avec de véritables rédactions professionnelles comme l’américain New York Times ou l’espagnol El Pais. La dimension collaborative de l’outil est mise en évidence. Par conséquent, l’ambition de Google est d’agir à tous les niveaux : pigistes, rédactions, blogueurs, etc. Tous apportent de la matière première qui sera moulinée par un ou plusieurs outils de Google.

Avec la perche tendue aux rédactions de journaux en place, on ne peut pas conclure trop vite que la GNI soit une tentative pour ubériser le journalisme. En revanche, si le projet parvient à prendre corps, Google se transformera de facto en véritable agence de presse. Car tous les contributeurs entrant des données et informations issues du terrain dans le système de Google seront autant de sources gratuites pour le géant du web. En parallèle, les rédactions des journaux étant souvent soumises à des restrictions budgétaires pour « faire du terrain », cette matière première pourrait constituer une alternative aux agences de presse, alors que les « pigistes googlisés » posséderaient potentiellement encore davantage de ramifications au cœur même de toutes les strates socio-économiques.

  • Et/ou youtuberiser le journalisme ?

Si le système réussit à s’implanter, en transformant en profondeur les acteurs de l’information, Google aurait alors accès à une source d’informations gratuites, locales, et en nombre. Les outils mis à disposition pourraient permettre d’en certifier la qualité. Les clients iraient alors s’informer auprès de pigistes-blogueurs non forcément professionnels, dont tout ou partie des revenus reposerait sur la capacité à rendre captif ledit public. Ce dernier point indique d’ailleurs qu’il faudrait se diriger vers des articles qui stimulent l’émotion davantage que la raison, phénomène bien connu des marketeurs, et qui est loin d’être récent.

Il en découle alors un point d’équilibre qui ne sera pas simple à obtenir, dans un monde où chacun peut devenir producteur/diffuseur d’informations : générer un contenu rigoureux sur la forme et le fond, original, tout en étant générateur de palpitations. Aussi, il y a fort à parier que la concurrence pourrait être rude, et qu’une infime minorité de journalistes-blogueurs parviendront à vivre de leurs posts, à l’image des youtubers.

  • Au-delà de la presse, une capitalisation de l’information sans précédent se profile

Produire du contenu journalistique rentable est difficile. Rappelons que la presse française est largement subventionnée : le reportage coute cher, le prix que le citoyen est prêt à mettre pour s’informer est faible (la légitimité de la redevance audiovisuelle est elle-même régulièrement remise en question), alors qu’une défiance vis-à-vis des journalistes est grande dans notre pays. Le modèle tient donc par perfusion et se fait bousculer en permanence par des pure players du web, alors que les générations montantes ont pris pour habitude de s’informer quasi exclusivement sur Internet.

Mais, dans l’hypothèse où la GNI prenne et si Google acquiert un monopole sur la détention de l’information brute, recoupée, fiable et géolocalisée, il serait alors facile de faire ingérer cette matière par des intelligences artificielles (rappelons que la maison-mère Alphabet investit régulièrement dans ce domaine). Et tout comme Facebook en connait beaucoup sur la vie des personnes qui utilisent ce réseau social, Google pourrait également en connaitre beaucoup sur la vie des sphères politico-économiques, globales ou locales.

Se dessine alors un monde un peu étrange, fait d’algorithmes et de prédictions à des échelles plus ou moins grandes. Fort de cette connaissance, Google pourrait non seulement étendre la capacité d’audience et le ciblage de produits et services (marketing) mais aussi contribuer à manipuler les foules (si l’on songe aux possibilités que donne le CLOUD Act américain de 2018).

  • Le droit ne peut être une stratégie tenable dans une révolution industrielle

Pour en revenir à la bataille qui se joue à l’heure actuelle, il semble logique que les éditeurs de presse aient choisi le terrain juridique pour freiner l’avancée de Google sur leurs plates-bandes. Il faut remarquer qu’au final, ils agissent comme la corporation des taxis à l’arrivée d’Uber, car on ne peut pas demander à une profession de se réformer au point de se dissoudre. En revanche, il est moins compréhensible que le législateur n’accompagne pas ces entreprises de presse dans une transformation profonde qui sera inéluctable car cohérente avec les opportunités offertes par les outils numériques en cloud computing. Concrètement, nous ne pouvons que déplorer qu’aucun projet industriel comparable à la GNI ne soit programmé pour appuyer la presse européenne. Tout juste a-t-on ces lignes financières dont on espère (mais l’incantation est-elle une stratégie ?) qu’elles feront émerger spontanément un potentiel concurrent frontal à GNI. Il semble malheureusement que la stratégie adoptée à l’échelle européenne soit le repli tactique. Il devient alors possible, pour ne pas dire probable qu’à moyen terme, la majorité des contenus d’information européen soit régie en dernier recours par le droit californien, et que le droit d’auteur en presse, tel que redéfini cette année, ne soit qu’une chimère.

(*) : nous entendons par « presse écrite » la presse papier et la presse numérique

La finalité d’un processus de veille n’est pas une question si évidente qu’il n’y parait. L’Intelligence Economique est souvent encline à situer la veille au service des volets offensif et défensif d’une stratégie, laquelle sert une politique ou une vision constituée d’objectifs de moyen et long termes. Il faut remarquer que notre époque questionne cette approche.

En effet, lorsqu’on est sur une période de faible variabilité des rapports de forces sur un marché (nombre limité de nouveaux entrants et parts de marchés stables des acteurs principaux), qui comporte peu de changements de règles du jeu (législation, réglementations, normes et usages), on peut bâtir une stratégie de long terme visant à garder ses positions ou à pénétrer le marché. Notons que dans ce cas de figure, on a affaire à des stratégies souvent focalisées sur la conquête de marché.

Or, s’il est vrai que sans stratégie rien n’est envisageable, de nombreuses entreprises sont à présent mises dans un bain concurrentiel mondial, qui les incitent davantage à opter pour des comportements de survie, selon deux axes principaux : innover et afficher une rentabilité actuelle ou future. Progressivement, vendre des produits devient secondaire (du moins dans un premier temps) : ce qui compte avant tout est de rassurer les investisseurs ou actionnaires (l’exemple d’Amazon est éloquent à ce titre, voir ICI). Au travers d’innovations présentées comme disruptives, ces parties prenantes se sentent rassurées, notamment en anticipant des profits substantiels à une échéance palpable. Dans le même temps, une partie croissante de la valeur des produits est transférée vers la réputation de la marque, assurant parfois des positions dominantes mais présentant également des vulnérabilités accrues aux attaques informationnelles.

Depuis la fin des années 1970, les différentes phases de mondialisation et les technologies de l’information ont modifié considérablement le jeu économique par la multiplicité des acteurs et un accès démocratisé à une information surabondante. Aussi, dans l’économie actuelle, la veille se voit affublée d’une double injonction : alimenter la stratégie et alimenter l’innovation. A notre niveau, nous notons un glissement souvent (mais pas toujours !) significatif vers le deuxième aspect. Autrefois vue exclusivement comme un outil d’aide à la décision, la veille devient davantage un outil d’aide à l’innovation et de stimulation de la créativité.  Dans les deux cas, il s’agit d’alimenter les processus internes de l’entreprise, à des niveaux différents, avec des informations utiles, ayant passées des filtres rigoureusement paramétrés. A ce jour, et en attendant l’homme « augmenté » promis par les tenants du transhumanisme ou l’Intelligence Artificielle de niveau 5, des outils techniques tels que ceux que nous proposons (voir ICI) ont toute leur raison d’être. En effet, rechercher de l’information coûte un temps et une énergie précieux qui seraient sans doute bien mieux mobilisés dans des activités où il est difficile de gagner du temps et où l’humain est la clé de voûte : l’analyse, la mise en perspective et l’inspiration.

S’il y a eu une époque où la rétention d’information pouvait assurer des positions dominantes, nous sommes désormais entrés dans une ère où l’information est disponible si tant est que l’on abatte la barrière de complexité qui nous en sépare. Et nous ne sommes pas encore entrés dans une ère où l’appropriation de l’information, qu’elle soit analytique ou symbolique, revient aux machines. L’Homme reste aux commandes de la finalité du processus de veille.

L’abondance d’informations provenant des différents canaux actuels est un phénomène auquel personne ne peut véritablement échapper. Mais l’information n’arrive jamais seule. Elle draine avec elle un lot d’éléments contextuels : canal utilisé, date de publication, volume de sources, nombre et qualité des sources primaires ayant eu accès à l’information, etc.

A cette complexité s’ajoute la nôtre, en tant que récepteurs d’information : ne pouvant tout absorber en permanence, notre cerveau place des filtres pour éviter la « surchauffe ». Cela signifie qu’il met en œuvre des stratégies nous permettant d’appréhender simplement une situation complexe ou ambiguë. Les situations complexes génèrent une quantité importante d’informations, et nous interagissons avec l’arrivée de ces données dans le but de produire une décision ou d’émettre un jugement.

Les biais cognitifs sont au final des erreurs d’interprétation, dont l’origine est à mettre sur le compte de la simplification excessive d’une situation. Une analogie avec l’optique s’avère pertinente : lorsque l’on observe des avions dans le ciel, on a tendance naturellement à croire que celui qui est le plus proche est le plus gros, car il est distingué plus nettement. La netteté devient alors un critère de proximité, ce qui ne rend pas toujours compte de la réalité.

Voici deux des principaux biais cognitifs dont il faut avoir conscience lorsque l’on traite de l’information.

• Le biais dans l’évaluation de la preuve.
L’être humain est prompt à attribuer davantage de valeur à une preuve qui entre en cohérence avec un système donné qu’à une preuve qui est fiable (donc vérifiée) en tant que telle. Si un interlocuteur que vous ne connaissez pas vous rapporte que votre concurrent vous a dénigré publiquement, vous aurez davantage tendance à croire que c’est la vérité s’il l’a déjà fait que si vous entretenez avec lui de bonnes relations. Or à ce stade rien n’est sûr…

• Le biais dans la perception de la cause et de la conséquence.
Du fait de notre conscience chronologique des évènements, il nous est difficile d’admettre des faits dont on ignore les causes. Si bien que dès qu’un évènement antérieur pourrait en être une cause parait plausible, il est interprété naturellement comme la cause effective. Si une entreprise de votre secteur change sa stratégie quelques mois après l’embauche d’un nouveau DG, il est facile d’imputer ce changement à la personne qui met en œuvre le changement, alors que la décision a pu être prise en amont de l’embauche du DG par le conseil d’administration par exemple.

Il faut avoir conscience que les biais cognitifs opèrent d’autant plus facilement que l’on a affaire à des informations dont nous n’avons pas été directement témoins et souvent issues d’un média ou d’un dispositif de communication. Cela constitue la grande majorité des cas. Il est donc toujours important de qualifier correctement la source de l’information en même temps que la fiabilité de l’information elle-même, et de procéder le cas échéant aux recoupements nécessaires.

Un système de veille vise à produire de la connaissance, et non de la croyance !

Aussi bien pour la curation que pour la création de nouveaux contenus, l’analyse concurrentielle est un aide précieuse pour améliorer ses performances sur le long terme, et à de nombreux échelons. Selon le schéma itératif classique, il est bon en effet de prendre en compte les données issues des contenus précédemment partagés, de les analyser, et de les confronter aux pratiques de ses concurrents ou de son domaine pour s’améliorer.

Le principe:

L’idéal est de mettre en place une veille, qui va permettre de:
-Déceler de nouveaux contenus (idées)
-Déceler les contenus qui ont marché (également chez les concurrents)
-Déceler les tendances (pour rebondir)
-Trouver des domaines peu explorés (pour y gagner une visibilité facile)
-Déceler les bonnes pratiques (méthodes, pour s’améliorer)

Le bénéfice peut être direct: Curation, ou indirect: idées de création d’articles, amélioration du SEO, de la rédaction, de l’engagement.

Les outils de surveillance en amont
Pour monter une véritable « station d’écoute », la veille peut se faire en utilisant Google Alerts (en complément) pour les actualités en vogue du moment, Social Mention pour les réseaux sociaux (qui inclus des rapports de suivi par Email) ou encore Nuzzle ainsi que d’autres gratuits comme Twazzup, Addictomatic, Klout, Tweetreach, Howsociable, IceRocket, Tweetdeck, Mention, Twitonomy, SumAll… On peut aussi passer la vitesse supérieure et monter sa propre plate-forme de veille sur RSS Monitoring, aussi bien pour surveiller un unique concurrent, ou pour tout domaine de manière centralisée, écoutant le web en général, les réseaux sociaux, les newsletters, voire la documentation qui circule sur internet.

Sur le plan SEO (référencement), on peut également trouver les meilleurs contenus (ceux qui attirent le plus de trafic) sur Ahrefs, avec Google Search en backup. Ahrefs permettra également de trouver tous les liens pointant vers vos concurrents (et donc les personnes qui les ont partagées), ou en alternative Majestic SEO et Open Site Explorer. Le but étant de joindre directement ces personnes par mail en leur proposant un contenu supérieur ! Il peut aussi être utile avant même d’envoyer ces mails de tester le pagerank (http://www.test-pagerank.com/) de ces sites pour ne pas perdre son temps. Le taux de succès moyen se situe autour de 10%, cela vaut donc la peine de rédiger un mail-type !

Trouver des idées de sujets
La surveillance des conversations peut s’effectuer sur des plate-formes aussi diverses que Quora, LinkedIn Groups, en surveillant les commentaires de blogs, forums spécialisés, ou encore Google Local. Le résultat de ces recherches est précieux car il permettra de déceler les expressions-clés les plus utilisées par le public, une mine d’or sur le plan du SEO car on pourra y faire correspondre les titres de ses contenus ou orienter une curation. C’est également très pratique pour déceler des tendances. Il y a encore bien d’Autres idées pour trouver des idées de sujets.

Trouver les contenus qui ont le mieux fonctionné
En complément pour une veille sur les réseaux sociaux on peut citer des outils tels que TopTweet et Keyhole (Twitter) et pour ses propres statistiques des outils comme LikeAlyzer, FanPage Karma, ou bien SocialRank ou FollowerWonk pour suivre ses abonnés. Pour avoir une vue d’ensemble plus importante encore, Buzzsumo pour trouver les meilleurs contenus partagés sur chaque requête, par réseau social, mais surtout en montrant les influenceurs, ceux qui ont partagés ces contenus. Ces outils peuvent servir a créer de nouveau contenus, republier un contenu qui à marché avec un nouvel éclairage, ou encore « recycler » un contenu à soi qui a eu du succès, dont un aspect est remanié ou amélioré.

Et pour aller plus loin, ne pas oublier une veille SEO

En complément d’un outil de veille et d’outils gratuits de suivi des réseaux sociaux, il peut être utile de voir du côté des outils statistiques et d’analyse SEO pour voir l’impact de ses campagnes et s’améliorer.

SemRush ou MOZ font partie des plus utilisés, ils proposent un large éventail de possibilités sémantiques: Ils vont se pencher sur la crédibilité non seulement du site/blog mais aussi de tous les contenus partagés (réseaux sociaux) et peser leur pertinence par mots-clés, via des charts et des rapports (outils accessibles en démo). En gratuit bien sûr et déjà très complets, il y a aussi Google Analytics et Google webmaster tools pour les éventuels problèmes techniques de sites/blogs. L’un des aspects essentiel de ces outils (pour Google c’est sur Google adwords) est de déterminer la popularité d’une requête de recherche qui va permettre de savoir si on est sur la bonne voie ou s’il on prêche dans le désert.

Enfin, pour boucler la boucle, encore de la veille !

Et on en revient à la première étape, cette fois pour déterminer les meilleures pratiques. Le but ici est de s’améliorer selon le principe vu plus haut. On veille pour trouver les idées, les contenus, on partage, puis on analyse, et enfin on essaie de s’améliorer. Un outil de veille permettant de surveiller les bonnes pratiques en SEO/SMO, Marketing, et différentes tactiques et stratégies adoptées à toutes les étapes permet de se situer, d’abord par rapport aux pratiques de ses confrères, mais aussi par rapport à ses propres objectifs et d’apporter des améliorations à sa prochaine création/partage de contenus.

Bonne veille !