Intelligence économique Tag

L’Union Européenne a-t-elle une réaction à la hauteur de l’enjeu ?

 

La tension s’affiche au grand jour entre le géant du web et les éditeurs de presse écrite en Europe. Tiraillés entre la nécessité de voir leurs contenus indexés par Google et la volonté de valoriser leurs contenus, ces derniers ont choisi le terrain juridique pour faire valoir leurs prétentions. La directive européenne sur le droit d’auteur de 2019 en est la dernière illustration. Sur le papier, les « règles du jeu » changent, mais seront-elles opérantes sur le « terrain de jeu » de l’information grand public du futur ?

  • Qu’est ce que la Google News Initiative ?

Née en 2015, la Google News Initiative (GNI) a été lancée à une échelle importante en 2018 par Google. Par ce concept, la firme californienne souhaite mettre à disposition un package d’outils pour travailler avec des médias ou des journalistes indépendants (pigistes et reporters), mais aussi tous ceux qui voudraient vivre de l’écriture d’articles même s’ils n’ont pas de carte de presse. Certains des éléments de la suite logicielle que constitue la GNI sont déjà en service (comme News Consumer Insights, utilisé notamment par BuzzFeed), et d’autres en développement sur des plateformes open-source (par exemple sur GitHub). 300 millions de dollars seront alloués pour le projet, répartis sur 3 ans.

Faut-il voir dans ce projet la réponse de Google à une volonté, plus ou moins ouvertement affichée, de « dégoogliser » l’Internet européen ? De fait, l’épisode de la directive sur les nouvelles règles du droit d’auteur, qui a été approuvée tout récemment par le Parlement Européen, pourrait paraitre désuète à peine entrée en vigueur à l’aune de l’ambition de Google. En effet le projet consiste ni plus ni moins qu’à rendre captifs des plateformes Google, les nombreux potentiels producteurs de contenus informatifs situés dans toutes les strates de la société civile, y compris les plus locales. La granularité de la connaissance des sociétés pourrait alors devenir beaucoup plus fine.

  • Les médias européens : entre défense d’intérêts et absence d’une vision claire du cybermonde

Au niveau européen, les lignes bougent : la directive votée par le parlement le 26 mars 2019 prévoit un renforcement du droit d’auteur pour le contenu en ligne, avec pour conséquence de rendre illégal le « copier-coller », excédant une accroche, de contenus dont on n’est pas l’auteur. Il semble d’ailleurs que la France souhaite légiférer dès cet été pour transcrire le texte en droit Français. Cette directive a d’ailleurs été fortement contestée par les tenants de la neutralité du net, y voyant un dispositif de mise en place d’une censure apriori par des opérateurs privés (et non a posteriori par une instance judiciaire). Et, alors qu’il est illusoire, au vu des volumes téléchargés,de considérer qu’une décision humaine puisse décider si des contenus mis en ligne violent ou non le droit d’auteur, il semblerait que les outils techniques qui devraient s’en charger ne sont pas encore au point. Notamment pour reconnaitre une œuvre d’un de ses pastiches.

Dans la (petite) foulée de cette directive, un rapport commandé en 2017 a été rendu public le 28 mars 2019 : « Towards European Media Sovereignty » (Vers une souveraineté médiatique européenne). Faisant référence à la GNI, ce rapport précise dans ses propositions : « Bien que nous apprécions l’initiative de Google, son intelligence et sa facilité d’utilisation, elle soulève de réels problèmes pour de nombreuses entreprises, car elles dépendent de plus en plus de Google (distribution, publicité, mesure d’audience, recherche et développement). Nous estimons l’investissement public nécessaire pour diffuser les innovations dans le secteur à environ 1 milliard d’euros pour les 5 prochaines années. Ce fonds pourrait être axé sur les technologies d’analyse des données, l’intelligence artificielle, la blockchain, les neurosciences et le secteur des médias. »

A ce stade, force est de constater une différence de fond dans la formulation des stratégies ainsi que dans les moyens alloués. Dans le cas de Google, on a affaire à un projet de captation de l’information et de l’informateur à la base, avec une transformation souhaitée du métier de pigiste, qui se verrait proposé un panel de services au plus près de ses besoins. Pour l’UE, la stratégie se conjugue au conditionnel, avec quelques mises à disposition de financements. Aussi, l’UE investira dans de la technologie tous azimuts tandis que Google investira dans des moyens opérationnels articulés placés directement sur la chaine de valeur de l’information qui sera médiatisée par ses propres canaux.

Et si Google News Initiative devenait aussi incontournable pour le journaliste que Google pour l’internaute ?

Entrons à présent dans les ressorts de la Google News Initiative (GNI). Il semble que cette suite d’outils serait, dans un avenir proche, apte à transformer tous ceux qui le souhaitent en pigistes/journalistes, c’est-à-dire en personnes qui génèrent des revenus en fonction d’articles qu’ils publient. Google pourrait alors devenir le premier éditeur de presse au niveau mondial, mais au-delà de ça, il pourrait surtout acquérir une connaissance sans précédent du temps présent.

  • Ubériser le journalisme avec Google News Initiative ?

Il existe, à n’en pas douter, une puissance de l’outil Google News Initiative, qui capitalise sur de nombreux logiciels mis en place ou rachetés par la firme : il permet au journaliste/blogueur de jouer (car l’aspect ludique est indéniable) avec les données, les images, les outils de recoupement de l’information. A titre d’exemple, la recherche de l’antériorité d’une image peut donner lieu à l’invalidation d’un post d’un réseau social s’appuyant de façon fallacieuse sur l’image en question.

Par ailleurs, Google propose à qui veut s’y mettre une formation en ligne, bien faite (même si pour l’heure plusieurs modules ne sont pas opérationnels). On prend conscience de deux éléments singuliers : elle est courte (3 modules à suivre sur environ 4h30 au total), exhaustive : elle ne se limite pas au traitement de l’information mais permet de comprendre comment monétiser un travail diffusé sur le web. De plus, l’un des modules comprend la visualisation de données, permettant au non expert en data-design de rendre accessible l’interprétation de données statistiques.

Avec de tels outils, n’importe qui peut prétendre manipuler de l’information et la valoriser, mais en restant dans une sphère Google. Reste seulement à produire des articles dignes d’intérêt pour générer du clic sur les publicités qui seront associées…

Et pour consolider sa position, Google travaille également de concert avec de véritables rédactions professionnelles comme l’américain New York Times ou l’espagnol El Pais. La dimension collaborative de l’outil est mise en évidence. Par conséquent, l’ambition de Google est d’agir à tous les niveaux : pigistes, rédactions, blogueurs, etc. Tous apportent de la matière première qui sera moulinée par un ou plusieurs outils de Google.

Avec la perche tendue aux rédactions de journaux en place, on ne peut pas conclure trop vite que la GNI soit une tentative pour ubériser le journalisme. En revanche, si le projet parvient à prendre corps, Google se transformera de facto en véritable agence de presse. Car tous les contributeurs entrant des données et informations issues du terrain dans le système de Google seront autant de sources gratuites pour le géant du web. En parallèle, les rédactions des journaux étant souvent soumises à des restrictions budgétaires pour « faire du terrain », cette matière première pourrait constituer une alternative aux agences de presse, alors que les « pigistes googlisés » posséderaient potentiellement encore davantage de ramifications au cœur même de toutes les strates socio-économiques.

  • Et/ou youtuberiser le journalisme ?

Si le système réussit à s’implanter, en transformant en profondeur les acteurs de l’information, Google aurait alors accès à une source d’informations gratuites, locales, et en nombre. Les outils mis à disposition pourraient permettre d’en certifier la qualité. Les clients iraient alors s’informer auprès de pigistes-blogueurs non forcément professionnels, dont tout ou partie des revenus reposerait sur la capacité à rendre captif ledit public. Ce dernier point indique d’ailleurs qu’il faudrait se diriger vers des articles qui stimulent l’émotion davantage que la raison, phénomène bien connu des marketeurs, et qui est loin d’être récent.

Il en découle alors un point d’équilibre qui ne sera pas simple à obtenir, dans un monde où chacun peut devenir producteur/diffuseur d’informations : générer un contenu rigoureux sur la forme et le fond, original, tout en étant générateur de palpitations. Aussi, il y a fort à parier que la concurrence pourrait être rude, et qu’une infime minorité de journalistes-blogueurs parviendront à vivre de leurs posts, à l’image des youtubers.

  • Au-delà de la presse, une capitalisation de l’information sans précédent se profile

Produire du contenu journalistique rentable est difficile. Rappelons que la presse française est largement subventionnée : le reportage coute cher, le prix que le citoyen est prêt à mettre pour s’informer est faible (la légitimité de la redevance audiovisuelle est elle-même régulièrement remise en question), alors qu’une défiance vis-à-vis des journalistes est grande dans notre pays. Le modèle tient donc par perfusion et se fait bousculer en permanence par des pure players du web, alors que les générations montantes ont pris pour habitude de s’informer quasi exclusivement sur Internet.

Mais, dans l’hypothèse où la GNI prenne et si Google acquiert un monopole sur la détention de l’information brute, recoupée, fiable et géolocalisée, il serait alors facile de faire ingérer cette matière par des intelligences artificielles (rappelons que la maison-mère Alphabet investit régulièrement dans ce domaine). Et tout comme Facebook en connait beaucoup sur la vie des personnes qui utilisent ce réseau social, Google pourrait également en connaitre beaucoup sur la vie des sphères politico-économiques, globales ou locales.

Se dessine alors un monde un peu étrange, fait d’algorithmes et de prédictions à des échelles plus ou moins grandes. Fort de cette connaissance, Google pourrait non seulement étendre la capacité d’audience et le ciblage de produits et services (marketing) mais aussi contribuer à manipuler les foules (si l’on songe aux possibilités que donne le CLOUD Act américain de 2018).

  • Le droit ne peut être une stratégie tenable dans une révolution industrielle

Pour en revenir à la bataille qui se joue à l’heure actuelle, il semble logique que les éditeurs de presse aient choisi le terrain juridique pour freiner l’avancée de Google sur leurs plates-bandes. Il faut remarquer qu’au final, ils agissent comme la corporation des taxis à l’arrivée d’Uber, car on ne peut pas demander à une profession de se réformer au point de se dissoudre. En revanche, il est moins compréhensible que le législateur n’accompagne pas ces entreprises de presse dans une transformation profonde qui sera inéluctable car cohérente avec les opportunités offertes par les outils numériques en cloud computing. Concrètement, nous ne pouvons que déplorer qu’aucun projet industriel comparable à la GNI ne soit programmé pour appuyer la presse européenne. Tout juste a-t-on ces lignes financières dont on espère (mais l’incantation est-elle une stratégie ?) qu’elles feront émerger spontanément un potentiel concurrent frontal à GNI. Il semble malheureusement que la stratégie adoptée à l’échelle européenne soit le repli tactique. Il devient alors possible, pour ne pas dire probable qu’à moyen terme, la majorité des contenus d’information européen soit régie en dernier recours par le droit californien, et que le droit d’auteur en presse, tel que redéfini cette année, ne soit qu’une chimère.

(*) : nous entendons par « presse écrite » la presse papier et la presse numérique

La finalité d’un processus de veille n’est pas une question si évidente qu’il n’y parait. L’Intelligence Economique est souvent encline à situer la veille au service des volets offensif et défensif d’une stratégie, laquelle sert une politique ou une vision constituée d’objectifs de moyen et long termes. Il faut remarquer que notre époque questionne cette approche.

En effet, lorsqu’on est sur une période de faible variabilité des rapports de forces sur un marché (nombre limité de nouveaux entrants et parts de marchés stables des acteurs principaux), qui comporte peu de changements de règles du jeu (législation, réglementations, normes et usages), on peut bâtir une stratégie de long terme visant à garder ses positions ou à pénétrer le marché. Notons que dans ce cas de figure, on a affaire à des stratégies souvent focalisées sur la conquête de marché.

Or, s’il est vrai que sans stratégie rien n’est envisageable, de nombreuses entreprises sont à présent mises dans un bain concurrentiel mondial, qui les incitent davantage à opter pour des comportements de survie, selon deux axes principaux : innover et afficher une rentabilité actuelle ou future. Progressivement, vendre des produits devient secondaire (du moins dans un premier temps) : ce qui compte avant tout est de rassurer les investisseurs ou actionnaires (l’exemple d’Amazon est éloquent à ce titre, voir ICI). Au travers d’innovations présentées comme disruptives, ces parties prenantes se sentent rassurées, notamment en anticipant des profits substantiels à une échéance palpable. Dans le même temps, une partie croissante de la valeur des produits est transférée vers la réputation de la marque, assurant parfois des positions dominantes mais présentant également des vulnérabilités accrues aux attaques informationnelles.

Depuis la fin des années 1970, les différentes phases de mondialisation et les technologies de l’information ont modifié considérablement le jeu économique par la multiplicité des acteurs et un accès démocratisé à une information surabondante. Aussi, dans l’économie actuelle, la veille se voit affublée d’une double injonction : alimenter la stratégie et alimenter l’innovation. A notre niveau, nous notons un glissement souvent (mais pas toujours !) significatif vers le deuxième aspect. Autrefois vue exclusivement comme un outil d’aide à la décision, la veille devient davantage un outil d’aide à l’innovation et de stimulation de la créativité.  Dans les deux cas, il s’agit d’alimenter les processus internes de l’entreprise, à des niveaux différents, avec des informations utiles, ayant passées des filtres rigoureusement paramétrés. A ce jour, et en attendant l’homme « augmenté » promis par les tenants du transhumanisme ou l’Intelligence Artificielle de niveau 5, des outils techniques tels que ceux que nous proposons (voir ICI) ont toute leur raison d’être. En effet, rechercher de l’information coûte un temps et une énergie précieux qui seraient sans doute bien mieux mobilisés dans des activités où il est difficile de gagner du temps et où l’humain est la clé de voûte : l’analyse, la mise en perspective et l’inspiration.

S’il y a eu une époque où la rétention d’information pouvait assurer des positions dominantes, nous sommes désormais entrés dans une ère où l’information est disponible si tant est que l’on abatte la barrière de complexité qui nous en sépare. Et nous ne sommes pas encore entrés dans une ère où l’appropriation de l’information, qu’elle soit analytique ou symbolique, revient aux machines. L’Homme reste aux commandes de la finalité du processus de veille.

L’abondance d’informations provenant des différents canaux actuels est un phénomène auquel personne ne peut véritablement échapper. Mais l’information n’arrive jamais seule. Elle draine avec elle un lot d’éléments contextuels : canal utilisé, date de publication, volume de sources, nombre et qualité des sources primaires ayant eu accès à l’information, etc.

A cette complexité s’ajoute la nôtre, en tant que récepteurs d’information : ne pouvant tout absorber en permanence, notre cerveau place des filtres pour éviter la « surchauffe ». Cela signifie qu’il met en œuvre des stratégies nous permettant d’appréhender simplement une situation complexe ou ambiguë. Les situations complexes génèrent une quantité importante d’informations, et nous interagissons avec l’arrivée de ces données dans le but de produire une décision ou d’émettre un jugement.

Les biais cognitifs sont au final des erreurs d’interprétation, dont l’origine est à mettre sur le compte de la simplification excessive d’une situation. Une analogie avec l’optique s’avère pertinente : lorsque l’on observe des avions dans le ciel, on a tendance naturellement à croire que celui qui est le plus proche est le plus gros, car il est distingué plus nettement. La netteté devient alors un critère de proximité, ce qui ne rend pas toujours compte de la réalité.

Voici deux des principaux biais cognitifs dont il faut avoir conscience lorsque l’on traite de l’information.

• Le biais dans l’évaluation de la preuve.
L’être humain est prompt à attribuer davantage de valeur à une preuve qui entre en cohérence avec un système donné qu’à une preuve qui est fiable (donc vérifiée) en tant que telle. Si un interlocuteur que vous ne connaissez pas vous rapporte que votre concurrent vous a dénigré publiquement, vous aurez davantage tendance à croire que c’est la vérité s’il l’a déjà fait que si vous entretenez avec lui de bonnes relations. Or à ce stade rien n’est sûr…

• Le biais dans la perception de la cause et de la conséquence.
Du fait de notre conscience chronologique des évènements, il nous est difficile d’admettre des faits dont on ignore les causes. Si bien que dès qu’un évènement antérieur pourrait en être une cause parait plausible, il est interprété naturellement comme la cause effective. Si une entreprise de votre secteur change sa stratégie quelques mois après l’embauche d’un nouveau DG, il est facile d’imputer ce changement à la personne qui met en œuvre le changement, alors que la décision a pu être prise en amont de l’embauche du DG par le conseil d’administration par exemple.

Il faut avoir conscience que les biais cognitifs opèrent d’autant plus facilement que l’on a affaire à des informations dont nous n’avons pas été directement témoins et souvent issues d’un média ou d’un dispositif de communication. Cela constitue la grande majorité des cas. Il est donc toujours important de qualifier correctement la source de l’information en même temps que la fiabilité de l’information elle-même, et de procéder le cas échéant aux recoupements nécessaires.

Un système de veille vise à produire de la connaissance, et non de la croyance !

Aussi bien pour la curation que pour la création de nouveaux contenus, l’analyse concurrentielle est un aide précieuse pour améliorer ses performances sur le long terme, et à de nombreux échelons. Selon le schéma itératif classique, il est bon en effet de prendre en compte les données issues des contenus précédemment partagés, de les analyser, et de les confronter aux pratiques de ses concurrents ou de son domaine pour s’améliorer.

Le principe:

L’idéal est de mettre en place une veille, qui va permettre de:
-Déceler de nouveaux contenus (idées)
-Déceler les contenus qui ont marché (également chez les concurrents)
-Déceler les tendances (pour rebondir)
-Trouver des domaines peu explorés (pour y gagner une visibilité facile)
-Déceler les bonnes pratiques (méthodes, pour s’améliorer)

Le bénéfice peut être direct: Curation, ou indirect: idées de création d’articles, amélioration du SEO, de la rédaction, de l’engagement.

Les outils de surveillance en amont
Pour monter une véritable « station d’écoute », la veille peut se faire en utilisant Google Alerts (en complément) pour les actualités en vogue du moment, Social Mention pour les réseaux sociaux (qui inclus des rapports de suivi par Email) ou encore Nuzzle ainsi que d’autres gratuits comme Twazzup, Addictomatic, Klout, Tweetreach, Howsociable, IceRocket, Tweetdeck, Mention, Twitonomy, SumAll… On peut aussi passer la vitesse supérieure et monter sa propre plate-forme de veille sur RSS Monitoring, aussi bien pour surveiller un unique concurrent, ou pour tout domaine de manière centralisée, écoutant le web en général, les réseaux sociaux, les newsletters, voire la documentation qui circule sur internet.

Sur le plan SEO (référencement), on peut également trouver les meilleurs contenus (ceux qui attirent le plus de trafic) sur Ahrefs, avec Google Search en backup. Ahrefs permettra également de trouver tous les liens pointant vers vos concurrents (et donc les personnes qui les ont partagées), ou en alternative Majestic SEO et Open Site Explorer. Le but étant de joindre directement ces personnes par mail en leur proposant un contenu supérieur ! Il peut aussi être utile avant même d’envoyer ces mails de tester le pagerank (http://www.test-pagerank.com/) de ces sites pour ne pas perdre son temps. Le taux de succès moyen se situe autour de 10%, cela vaut donc la peine de rédiger un mail-type !

Trouver des idées de sujets
La surveillance des conversations peut s’effectuer sur des plate-formes aussi diverses que Quora, LinkedIn Groups, en surveillant les commentaires de blogs, forums spécialisés, ou encore Google Local. Le résultat de ces recherches est précieux car il permettra de déceler les expressions-clés les plus utilisées par le public, une mine d’or sur le plan du SEO car on pourra y faire correspondre les titres de ses contenus ou orienter une curation. C’est également très pratique pour déceler des tendances. Il y a encore bien d’Autres idées pour trouver des idées de sujets.

Trouver les contenus qui ont le mieux fonctionné
En complément pour une veille sur les réseaux sociaux on peut citer des outils tels que TopTweet et Keyhole (Twitter) et pour ses propres statistiques des outils comme LikeAlyzer, FanPage Karma, ou bien SocialRank ou FollowerWonk pour suivre ses abonnés. Pour avoir une vue d’ensemble plus importante encore, Buzzsumo pour trouver les meilleurs contenus partagés sur chaque requête, par réseau social, mais surtout en montrant les influenceurs, ceux qui ont partagés ces contenus. Ces outils peuvent servir a créer de nouveau contenus, republier un contenu qui à marché avec un nouvel éclairage, ou encore « recycler » un contenu à soi qui a eu du succès, dont un aspect est remanié ou amélioré.

Et pour aller plus loin, ne pas oublier une veille SEO

En complément d’un outil de veille et d’outils gratuits de suivi des réseaux sociaux, il peut être utile de voir du côté des outils statistiques et d’analyse SEO pour voir l’impact de ses campagnes et s’améliorer.

SemRush ou MOZ font partie des plus utilisés, ils proposent un large éventail de possibilités sémantiques: Ils vont se pencher sur la crédibilité non seulement du site/blog mais aussi de tous les contenus partagés (réseaux sociaux) et peser leur pertinence par mots-clés, via des charts et des rapports (outils accessibles en démo). En gratuit bien sûr et déjà très complets, il y a aussi Google Analytics et Google webmaster tools pour les éventuels problèmes techniques de sites/blogs. L’un des aspects essentiel de ces outils (pour Google c’est sur Google adwords) est de déterminer la popularité d’une requête de recherche qui va permettre de savoir si on est sur la bonne voie ou s’il on prêche dans le désert.

Enfin, pour boucler la boucle, encore de la veille !

Et on en revient à la première étape, cette fois pour déterminer les meilleures pratiques. Le but ici est de s’améliorer selon le principe vu plus haut. On veille pour trouver les idées, les contenus, on partage, puis on analyse, et enfin on essaie de s’améliorer. Un outil de veille permettant de surveiller les bonnes pratiques en SEO/SMO, Marketing, et différentes tactiques et stratégies adoptées à toutes les étapes permet de se situer, d’abord par rapport aux pratiques de ses confrères, mais aussi par rapport à ses propres objectifs et d’apporter des améliorations à sa prochaine création/partage de contenus.

Bonne veille !