Regard sur l’actualité

De façon purement rhétorique, il est aisé de comprendre pourquoi la lutte contre une fake news est un leurre : il est impossible d’empêcher quelqu’un de croire en une information (cf. les débats qui ont fait suite au concept de « déradicalisation » pour aboutir in fine à la non pertinence de cette notion). En revanche, il est possible d’empêcher des sources de diffuser une information (qu’elle soit d’ailleurs vraie ou fausse) : cela constitue en soi une forme de censure. Il est également possible de supprimer des canaux de communication vers les tiers, ou même de noyer l’information parmi des informations contradictoires de même nature afin d’en faire perdre la puissance de persuasion.

En tant que professionnels de l’information, nous nous devons d’avoir les idées claires sur ce que nous manipulons au quotidien. Cet article a pour but de mieux comprendre comment considérer les informations qualifiées de « fake news » ou « infox », alors que cette notion est souvent employée pour disqualifier un adversaire plutôt que pour rétablir une vérité.

Cet article vise également à expliquer en quoi l’information n’a de valeur que parce que celle-ci lui est attribuée par le récepteur. Celui-ci dispose de sa culture (scientifique et non scientifique), ses croyances (idéologiques ou religieuses) et ses biais cognitifs pour valider ou non ladite information.

Internet a brouillé les pistes

La théorie de la communication désigne comme information le message qui transite entre un émetteur et un récepteur par le biais d’un canal de transmission.

Internet est un canal particulier, puisqu’il constitue une plateforme d’échange d’informations qui ne fait a priori pas de distinction entre les différents statuts des informations qui sont véhiculées, de même qu’une route n’est pas capable d’analyser quels sont les véhicules qui l’empruntent. Ainsi des informations de diverses natures pourront librement se diffuser : faits, théories scientifiques, opinions, avis, humeur, sentiment, hypothèses, connaissances, croyances, arguments étayés, arguments de « bon sens », propositions commerciales, statistiques, etc.

Par construction, Internet ne permet pas d’affecter une « métadonnée » de statut (à savoir de catégoriser parmi des types d’informations possibles) à l’information qui y transite. C’est donc au niveau de la personne qui reçoit l’information, et quelquefois du site qui met à disposition l’information, que ce statut est attribué, plus ou moins consciemment. Mais compte tenu de la complexité des informations qui sont en jeu, et quel que soit son niveau d’éducation, il est souvent très difficile de distinguer clairement un fait d’une autre catégorie d’information, dès lors que l’on n’est pas en prise directe ou témoin de celui-ci. Par ailleurs, qu’est-ce qu’un fait ? La proposition : « Flat Earth Society pense que la terre est plate » est un fait (on ne peut pas démontrer qu’ils ne le pensent pas et leur croyance est probablement souvent de bonne foi), alors que la proposition « La terre est globalement sphérique même si aplatie aux pôles » est un autre fait. Ce qui différentie ces deux propositions est que la première porte sur une opinion alors que la seconde porte sur une vérité scientifique issue d’un protocole. Mais dans les deux cas, c’est celui qui reçoit l’information qui va accorder ou non du crédit à la proposition globale.

La source et le recoupement

Se pose nécessairement la question du degré de confiance que l’on peut avoir dans l’information. Deux niveaux sont alors utilisés pour consolider cette confiance, bien connus des milieux traditionnels du Renseignement : la confiance dans la source d’information et la confiance dans l’information en tant que telle.

La confiance dans la source d’information repose le plus souvent sur une position sociale de la source : à ce stade, il n’est pas question de vérité mais d’autorité. Ainsi, le récepteur de l’information accordera son crédit à l’émetteur de façon plus ou moins inconditionnelle de par l’expérience des informations précédemment transmises et qui se sont révélées plausibles à l’usage. Dans le cas d’une croyance, on a affaire à une autorité religieuse ou idéologique et l’information sera d’autant plus plausible qu’elle consolide le système de pensée (ou théorie) qui abonde dans le sens de cette croyance.

Le deuxième aspect est l’information pour elle-même, qui peut être vraie même si la source est honnie. Ainsi, « ce n’est pas parce qu’Hitler a dit que l’Angleterre est une île que l’Angleterre n’est pas une île » : même des leaders d’opinion les plus contestables ne sont pas à l’abri d’émettre des vérités ! Pour appréhender la véracité d’une information, deux moyens sont possibles : aller la vérifier par soi-même (mais cela suppose des moyens logistiques et du temps) ou la recouper par d’autres sources primaires (les sources primaires sont celles ayant été en prise directe ou témoin de l’information, les sources secondaires sont celles qui ont relayé celle-ci, en faisant confiance à la source primaire). Et il convient de ne pas tomber dans le piège suivant : recouper une information par des sources secondaires issues d’une unique source primaire : c’est ce qui s’est produit lors la pseudo identification de Xavier Dupont de Ligonnès en Angleterre en octobre 2019 : la source primaire, une police locale, n’a pas été mise en doute par la plupart des medias pris dans une course au scoop (voir ICI).

Les opinions, les croyances, les théories du complot et l’esprit critique

Qu’on se le tienne pour dit : l’esprit humain, et a fortiori son intelligence, n’ont jamais eu vocation à rechercher la vérité pour elle-même. Les mécanismes cérébraux tendent vers un but unique : augmenter sa zone de confort, qu’il soit physiologique, psychologique ou matériel. Cela peut se traduire également par augmenter sa sphère de pouvoir, étant entendu qu’elle est en soi vecteur de confort. Les stratégies que le cerveau met au point peuvent s’affranchir des réalités (qui du reste ne sont pas toutes connues) pour établir un récit logique. Par exemple, il n’est pas rare que des enfants culpabilisent du fait que leurs parents se séparent, quand bien même ils ne sont pas en mesure de connaitre les raisons profondes de la séparation. Ils retournent donc la responsabilité vers eux-mêmes car ils sont à leurs propres yeux la seule clé explicative de la disruption de la continuité de la vie familiale, ayant pu à certains moments provoquer de la colère chez leurs parents. C’est un schéma de pensée qui, s’il peut être douloureux, n’en est pas moins justifié dans l’optique de préserver son intégrité psychique et de donner un sens à ce qui arrive compte tenu des éléments dont on dispose.

Ce que l’on nomme souvent « théories du complot » relève du même processus : relier et interpréter des faits réels ou supposés pour proposer une vision d’une histoire en cours. A ce stade, il faut néanmoins préciser que les complots existent et ont existé dans l’Histoire : il est arrivé que des minorités se soient entendues pour imposer des politiques à des majorités. On a d’ailleurs récemment fait référence à de nombreuses reprises aux accords de Sykes-Picot (à l’origine du tracé de frontières du Proche Orient pour délimiter des zones d’influence). Dans le monde de l’intelligence économique, il est souvent constaté que les Etats-Unis font en sorte d’avoir des collusions fortes entre services de renseignement d’Etat, entreprises et administrations pour s’approprier des entreprises étrangères. Cela ne pourra cependant jamais être formellement prouvé, puisque les éléments cruciaux sont du domaine des secrets d’Etat : aussi, les récits qui en sont fait peuvent s’apparenter à des « théories du complot ». L’exemple d’Alstom cédé pour sa partie stratégique à General Electric est à présent bien connu, notamment grâce à Frédéric Pierucci qui a pu analyser de l’intérieur les processus en jeu, ayant été lui-même l’objet de pressions de la part du Department Of Justice américain dont le but n’était probablement pas de faire émerger la seule Justice. Mais encore une fois, il est difficile de le prouver selon un protocole scientifique.

Il ne faut pas croire que les théories du complot sont l’apanage de « autres ». Sur l’exemple de l’épidémie du COVID-19, les chinois comme les occidentaux se sont rejetés la balle de la responsabilité de l’origine du virus. Le 13 mars 2020, l’Express titrait que « Pékin accuse sans preuve les Etats-Unis d’avoir apporté le virus en Chine » (ICI), alors que le 15 mars 2020, BFM relayait : « Die Welt [l’un des plus grands quotidiens allemands] accuse Trump de vouloir s’accaparer un éventuel vaccin juste pour les États-Unis » (ICI). Il faut ainsi remarquer à ce stade que dans les deux cas, les preuves manquent tout autant mais que le style du récit est différent : dans le premier cas, il s’agit d’une manœuvre grossière du gouvernement chinois, dans le second cas, on se base sur des rencontres dont on ne connait pas la teneur pour faire des suppositions.

Quid du fact checking (vérification des faits) ?

La population mondiale et a fortiori occidentale atteint des niveaux d’éducation sans précédents dans l’histoire de l’humanité (34% de la population française est diplômée de l’enseignement supérieur, même si cela ne veut pas dire qu’elle est supérieure en dignité…). Mais cela ne signifie pas que les gens sont par principe critiques vis-à-vis de l’information qu’ils reçoivent. En effet, la masse d’informations disponible ayant particulièrement augmenté avec les technologies, alors que le temps disponible pour les traiter ainsi que la configuration du cerveau n’ont pas subi la même trajectoire. Par ailleurs, même sans parler d’informations délibérément fausses, même les moins naïfs peuvent se faire avoir par des trolls et canulars. Le fact checking s’est au début défini comme une méthode de journalistes pour vérifier des faits, dans le but qu’eux-mêmes ne soient pas « intoxiqués » par des faits « alternatifs ».

Autre piège dans lequel il ne faut pas tomber, et dont le COVID-19 a illustré la réalité : la bataille d’experts. Les avis contradictoires font partie de la parole publique et ne doivent pas être considérés comme des « fake news »  par les parties adverses. A une échelle mondiale, les organismes faisant autorité en matière de santé publique sont au moins aussi nombreux que les pays. Aussi, l’article de CheckNews, service de fact checking du quotidien Libération « Covid–19 : Pourquoi plusieurs pays européens contredisent-ils la mise en garde d’Olivier Véran contre l’ibuprofène ? » (ICI) présente un débat que personne ne peut arbitrer à ce stade étant donné qu’il s’agit d’avis divergents d’experts.

De nombreux médias ont mis au point des politiques de fact checking. L’AFP informe sur ses techniques (ICI) reposant sur des règles déontologiques et des outils techniques du web. Google News Initiative, sur lequel nous avions fait un billet, met à disposition de tout un chacun des outils de vérification basés sur le web.

Cela dit, il faut être conscient des effets pervers de certains procédés qui se réclament fact checking. Dans cette veine, le journal Le Monde propose le Decodex (ICI) : il s’agit d’un moteur de recherche de sites ou d’extensions de navigateur qui peuvent s’installer sur Chrome ou Firefox et qui ne proposent pas de vérifier des faits, mais de qualifier des sources. Dans le cas des extensions, elles attribuent un code couleur de confiance aux sites Internet sur lesquels les internautes consultent de l’information. Le problème est que cette méthode ne permet pas de démêler le vrai du faux, mais juste de « blacklister » des sites, puisqu’un site non approuvé peut tout à fait énoncer des faits véridiques, comme un site approuvé peut énoncer des « fake ». Il semble donc que l’initiative Decodex serve davantage à positionner Le Monde comme garant des « bonnes » sources d’information, avec un conflit d’intérêt extrêmement problématique : le journal serait alors juge et partie. Il semble que CheckNews de Libération soit plus honnête en donnant des réponses de journalistes aux questions des abonnés au cas par cas après enquête.

Conclusion : on ne peut faire l’économie de s’éduquer au traitement de l’information

Il est clair que l’émetteur de l’information, qu’il en soit à l’origine ou qu’il en soit un relai, a une intention dans le fait de diffuser : ce n’est pas juste « informer », mais bien plus souvent créer ou partager une émotion : peur, dégoût, colère, envie, joie, etc. Or si l’on souhaite conserver un rapport honnête vis-à-vis de l’information, notamment pour l’utiliser dans le cadre d’une analyse, la seule question qui devrait nous tarauder est la suivante : est-elle vraie ou non ?

Il est notable que dans les affaires mêlant le site Wikileaks et son fondateur Julian Assange, et qui constituent un véritable feuilleton depuis 2010, très peu de sujets ont évoqué la véracité et les implications des informations révélées par rapport au sujet tellement secondaire « Julian Assange est-il quelqu’un de bien ?». Car quand bien même ce ne serait pas le cas, l’Intérêt Public sera toujours concerné par la seule question : ce qui a été révélé par Wikileaks, est-ce vrai ou non ?

Aussi, et comme nous l’avons vu, les pièges sont nombreux pour atténuer les effets d’informations, masquer leurs implications ou dévier leur intérêt. Quels que soient les artifices techniques que l’on place entre une information brute et un récepteur de cette information, il est important d’émanciper chacun de la naïveté. L’éducation doit demeurer permanente à mesure que la complexité des canaux d’information et des systèmes de transmission évolue.

Mais la bonne nouvelle est qu’il suffit au final de respecter quelques principes simples : bien distinguer la source d’information de l’information brute. Et arbitrer entre le degré de confiance que l’on peut accorder à la source avec le niveau de recoupement qu’on peut obtenir pour l’information brute par rapport à une source primaire. Et il faut impérativement procéder par ces deux approches simultanément pour tenter de s’approcher de la vérité.

 

Quatrième volet de notre série d’articles sur l’identification de startups.

Rappelons dans un premier temps qu’une monnaie possède 3 fonctions qui la définissent comme telle : unité de compte (ie. coordination et appréciation entre les valeurs relatives des biens et services), réserve en valeur (ie. possibilité d’épargne) et intermédiaire des échanges (outil de simplification par rapport au troc). On peut ainsi en déduire que la cryptomonnaie de Facebook, Libra, aura du mal à obtenir un statut de monnaie à part entière. Mais, tout comme les cryptomonnaies basées sur la blockchain, son irruption interroge sur les changements qu’ont produits la digitalisation des échanges et la multiplication des moyens de paiement associée.

Nous vous présentons ici quelques entreprises ayant tablé sur des innovations en matière de paiement ou recouvrement, alors que ces opérations (qui incluent les sommes, les délais, les échelonnements etc.) sont souvent liées à des relations économiques singulières qu’il convient de prendre en compte. L’idée n’est pas tant de faire un panorama des « fintechs » que de montrer quelques solutions techniques à des problématiques actuelles liées aux transactions financières en B2B ou B2C.

 

L’américain PaymentWorks a remarqué que lors de relations entre entreprises, notamment client-fournisseur, une clarification devait être souvent faite pour assurer le paiement du fournisseur, induisant des relances inutiles et chronophages. En effet, la génération de plusieurs devis émanant de plusieurs fournisseurs est génératrice de pertes de temps importantes, alors que les canaux de diffusion sont multiples, que les documents se ressemblent et que les personnes en charge des dossiers sont susceptibles de varier. L’idée de la start-up fondée en 2016 a été de simplifier les processus induits par les ERP (Enterprise Resource Planning) existant sur le marché pour aller vers un système maitrisé par le client et facile d’accès par les fournisseurs dans un fonctionnement en mode SaaS. Il s’agit d’un Supplier Information Management (SIM). Même si cela n’apparait pas être une révolution dans le domaine des ERP, il s’agit néanmoins d’un projet qui prend de front et fait une priorité autour du « nerf de la guerre » et du recouvrement en général.

Interface de PaymentWorks

Fondé en 2017, l’américain Mezu s’annonce comme la seule solution de transfert d’argent anonyme pour smartphone. L’expérience est assimilée au transfert d’espèces et le marketing entourant la lancée de l’application se fonde sur le respect de la vie privée, par opposition au modèle Facebook. La technologie utilisée n’est pas basée sur la blockchain. Il suffit de saisir la somme que vous voulez transmettre. L’application crée alors un code crypté unique qui s’autodétruira au bout de 2 minutes ou de 24 heures au choix. On donne ce code à une tierce personne pour autoriser la transaction. Lorsque le destinataire saisit ce code, la valeur de l’opération est immédiatement portée au crédit de son compte. Il s’agit en quelque sorte d’un Snapchat de la transaction financière. Le grand atout semble être la simplicité, avec une fonction bien circonscrite, ce qui tranche avec les applications bancaires.

Fondée en 2016 par des banquiers et codeurs Nigérians, Flutterwave s’est positionnée comme une plateforme de solutions de paiement B2B pour les entreprises en Afrique ou ailleurs, notamment grâce à sa plateforme « Rave ». La société soutenue par Y-Combinator a son siège social à San Francisco, gère son centre opérationnel au Nigeria et prévoit d’ajouter des bureaux en Afrique du Sud et au Cameroun. Parmi les clients existants, citons Uber, Booking.com et Jumia.com. Les API proposées par la société permettent de personnaliser les moyens de paiement. A titre d’exemple et début 2019, Flutterwave s’est associée à Visa pour lancer un produit de paiement pour les consommateurs en Afrique appelé GetBarter. L’offre basée sur l’utilisation du mobile vise à faciliter les paiements personnels et les paiements des petits commerçants à l’intérieur des pays et à travers les frontières nationales de l’Afrique. Les titulaires de carte Visa existants peuvent envoyer et recevoir des fonds chez eux ou à l’étranger sur GetBarter. Le produit permet également aux non-titulaires de carte (ceux qui ont des comptes ou des portefeuilles mobiles sur d’autres plateformes) de créer une carte Visa virtuelle pour se connecter à l’application.

Pour ce qui est des aspects pratiques de la vie de tous les jours, une entreprise française, Billee, propose depuis 2018 de réduire à peau de chagrin le moment de l’addition dans les restaurants. L’application ne se limite pas au paiement puisqu’elle intègre des possibilités de recherche de restaurants ou de notation de ceux-ci. En revanche, le restaurateur doit avoir une caisse possédant l’application afin de pouvoir accepter la transaction. Les choix de partage de l’addition ou de l’octroi de pourboires sont également possibles. Notons néanmoins que ce type d’application doit relever 2 défis pour être pérenne : atteindre une taille critique conséquente, et convaincre à la fois les clients et les restaurateurs en allant au-delà d’un effet de mode. Les deux volets supposent de lourds investissements en communication, mais aussi un part de chance (être dans l’ère du temps). Par ailleurs, à l’instar de modèles économiques comme Uber ou Air BnB, trop de concurrence tuerait le marché dans l’œuf, puisque la substitution par le paiement classique est toujours opérante.

On ne pouvait finir sans évoquer une solution basée sur la blockchain, le protocole à base de registres décentralisés sur le web et permettant des transactions complètement (jusqu’à preuve du contraire…) fiables. Dans le domaine du transport maritime et des flux de marchandises à une échelle mondiale, l’anglais CargoConX  a développé en 2018 l’application CargoCoin afin de s’imposer comme une plateforme de contrats intelligents et incluant des transferts de d’argent par cryptographie. Cette plateforme est conçue pour faciliter et optimiser l’interaction entre les négociants, les transitaires, les compagnies maritimes, les agents de réservation ainsi que toutes les autres parties impliquées dans le commerce et le transport international de marchandises et de biens. Les différentes avantages promus par l’entreprise correspondent aux principales problématiques des chaines logistiques complexes et sont les suivants :

 

Troisième volet de notre série d’articles sur l’identification de startups. Voir le premier article ICI et le deuxième ICI.

L’innovation, entendue comme produits nouveaux (ou services) associés à une capacité rapide de mise sur le marché, doit se doter d’outils aptes à transcrire les idées en germes en faisabilité ou à augmenter la vitesse de résolution de problèmes d’ingénierie complexes. Recourant le plus souvent à des algorithmes et des objets digitaux spécifiques, certaines start-ups font naître de nouvelles façons d’envisager la conception d’objets. L’un des principaux enjeux est de lever la barrière de la connaissance de logiciels complexes pour aller vers une plus grande agilité de conception par une immersion plus intuitive et facilitée dans le concept de l’objet en cours de création.

Un outil pour ouvrir des possibles

Société basée à Lausanne (Suisse) fondée en 2018, Mirrakoi a mis au point une « CAO augmentée », à savoir une technologie puissante pour la conception assistée par ordinateur (CAO). Il s’agit du logiciel XirusCAD qui permet potentiellement à tout un chacun de devenir designer. Il simule des contacts physiques réels pendant le processus de modélisation numérique 3D et permet une efficacité, une précision et une accélération sans précédent du processus de conception interactive pour la CAO et l’ingénierie assistée par ordinateur (IAO). Subdivision, ponts, dérivations en Y, surfaces lisses, et bien d’autres possibilités sont offertes par les fonctionnalités du logiciel dont la qualité est de rendre la modélisation simple sans poser de barrière à l’élan créatif.

Rendre plus accessible le prototypage d’objets complexes

Dans l’industrie, certains domaines sont en recherche continue de matériaux alliant légèreté et résistance notamment dans les domaines des satellites, des prothèses médicales, des drones ou encore de l’automobile. Toujours en Suisse, 9T Labs, une jeune entreprise zurichoise s’est spécialisée dans la fabrication d’imprimantes 3D pour la production de composites carbone qui possèdent ces propriétés physiques. Aujourd’hui, les industriels en question sont actuellement confrontés à deux problèmes. Premièrement, le prototypage et la production à faible volume prennent beaucoup de temps et sont extrêmement coûteux. Deuxièmement, les méthodes de fabrication conventionnelles limitent fortement la complexité géométrique d’une conception. Mais, 9T Labs semble avoir résolu ces problèmes en introduisant une imprimante 3D qui traite en continu les composites renforcés en fibres de carbone. Leur produit combine un nouveau procédé de fabrication de matériaux avec les dernières technologies de capteurs et de techniques d’apprentissage (machine learning) pour donner aux ingénieurs une flexibilité de fabrication de prototypes, tout en maintenant une qualité élevée des pièces finies.

La réalité virtuelle, un incontournable de la CAO de demain

Alors que des poids lourds de l’industrie tentent de rendre compatibles leurs logiciels de CAO avec des usages de réalité virtuelle, la start-up londonienne Gravity Sketch fait évoluer son logiciel depuis 2017. Aujourd’hui, fort de soutiens dans le monde automobile notamment, une nouvelle fonctionnalité permet aux concepteurs d’ouvrir Gravity Sketch sur leur tablette, de créer un dessin 2D avec leur stylo, puis de le manipuler avec un casque de réalité virtuelle pour transformer l’esquisse en une œuvre 3D et continuer à travailler dessus. Il semblerait que ce « pont » de la 2D vers la 3D soit un progrès conséquent pour faciliter la conception. Un autre avantage de la solution de Gravity Sketch est la compatibilité du logiciel avec plusieurs casques de réalité virtuelle grand public tels que ceux de la marque Oculus, HTC ou Windows. Par ailleurs, les formats manipulables sont compatibles avec de nombreux autres systèmes et assurent une interopérabilité avec les outils existants.

Résoudre jusqu’à 100 fois plus rapidement des problèmes d’ingénierie complexes

Les outils d’ingénierie assistée par ordinateur (ou CAE pour « Computer-Aided Engineering ») de OnScale, start-up américaine crée en 2017, sont basés sur des solveurs multiphysiques exclusifs développés et validés depuis plus de 30 ans par l’une des plus grandes sociétés de conseil en ingénierie au monde pour la DARPA (Defense Advanced Research Projects Agency qui dépend du ministère américain de la Défense) et de grands clients commerciaux. Les solveurs CAE ont été conçus pour des ordinateurs mainframe hautement parallèles  (un système dit « mainframe » correspond à un ordinateur hautes performances requérant une disponibilité et une sécurité supérieures à ce que peut offrir une machine de moindre envergure) afin de traiter de très gros problèmes de simulation d’ingénierie et sont parfaitement adaptés au cloud computing moderne et au calcul haute performance. OnScale offre aux ingénieurs une mine d’informations sur la conception et des résultats de simulation très précis, jusqu’à 100 fois plus rapides que les offres de CAE traditionnelles. Les solutions OnScale actuelles répondent aux besoins de simulation des marchés des semi-conducteurs et des MEMS, du mobile 5G, du biomédical de nouvelle génération et des véhicules autonomes.

Aide à la conception dans une « économie verte »

Le français PimpYour Waste a été fondée en 2017 par de jeunes architectes qui ont eu pour idée d’exploiter le bois issu de déchets de l’industrie du BTP. La start-up a conçu un algorithme capable d’analyser chaque élément potentiellement recyclable afin de constituer une base de données qui sera exploitable non seulement pour optimiser un espace de stockage, mais également pour sélectionner à posteriori les pièces qui pourront être utilisées pour de l’usinage en vue d’intégrer des meubles. En effet, l’algorithme permet d’analyser chaque élément en une demi seconde avec les informations de taille et de colorimétrie. Ensuite, à partir de modèles préconçus par l’entreprise, il est alors possible de faire correspondre les pièces à réemployer avec les modèles de mobilier à réaliser, par le biais d’une fraiseuse à commande numérique. Cet exemple signale un changement de paradigme dans la conception de meuble, où l’on commence souvent par le design pour rechercher les matériaux qui correspondent. Ici, c’est le matériau qui prime et qui contraint le design.

Certaines marques rivalisent d’ingéniosité pour se faire un coup de pub par ce puissant marqueur des esprits qu’est l’humour. Utilisant la viralité du web et des réseaux sociaux, on voit fleurir dans les premiers jours d’avril des articles ou vidéos étonnants.

Première question à se poser : quelle date sommes-nous ?

Le 1er avril, il y a fort à parier que les canulars vont fleurir. Mais certains ont trouvé la parade, à l’exemple de Virgin Train qui poste sa vidéo le 31 mars sur You Tube :

Virgin train

D’ailleurs, à la même date, Virgin Atlantic faisait également sa proposition :

Virgin Atlantic

Deuxième question à se poser : l’information est-elle de première main ?

La viralité consiste à relayer l’information de sorte qu’elle transite par différents canaux du web. Une information de type canular peut alors se trouver datée ultérieurement par rapport à son émission initiale. C’est donc le contenu qui doit nous mettre la puce à l’oreille : correspond-il à l’image et aux valeurs de la marque ? est-il inutilement provocateur ?

Voici ce que l’on trouvait le 4 avril sur le site de mode anglais « sofeminine » :

sofeminine

Un commentaire qui a donc pris au premier degré le canular de la société californienne Propageous, spécialisée dans les leggins.

Or aucune trace du leggin « I love the blood » sur le site officiel de la marque. Il faut remonter à la date du 1er avril de son FaceBook pour voir apparaitre la photo douteuse.

Troisième question à se poser : est-ce cohérent ?

Les apparats du sérieux et de la parole officielle ont toujours eu un effet de crédibilité très fort. C’est d’ailleurs souvent l’un des ressorts principaux de l’humour anglais, prompt à tourner en dérision les postures et expressions de la domination sociale. Mais lorsque l’on visionne la vidéo suivante, postée du reste le 1er avril, rappelons-nous que les missions de la police sont encadrées :

police

 

De même, gardons à l’esprit que la mode a pour finalité de commercialiser des vêtements et de créer des tendances. Aussi, lorsqu’un Pokémon est annoncé comme un mannequin, n’oublions pas de regarder la date de publication de l’information ?

Pokemon1

 

Pour se faire plaisir, 3 autres exemples du cru 2017, avec des constructeurs automobiles qui luttent pour la civilité et un fabricant de montres avec un peu trop d’innovations pour être vrai.
escape1

Honda

CompanionCollection5-702x336

 

Gouverner, c’est prévoir. Cet adage peut aussi s’appliquer au monde de l’entreprise, et tout particulièrement en matière d’investissement dans l’innovation. Ces jours-ci, Paris est devenu le centre du monde où l’avenir climatique de la planète va se décider au sein de la conférence internationale COP21. Les entreprises, qui arriveront à mieux appréhender voire anticiper les conséquences des décisions politiques, seront celles qui verront le plus clairement où seront flécher les budgets publics et sauront le mieux en profiter pour développer à moindre frais leurs produits et services. Tels sont les fruits que peuvent apporter la veille environnementale à l’heure de COP21 !

Qu’est-ce que la COP21 ?

La COP21 qui se tient du 30 novembre au 11 décembre au Bourget est une réunion hors norme sur un enjeu colossal : plus de 150 chefs d’Etat et de gouvernement réunis pour la 21ème conférence climatique de l’ONU, censée accoucher d’un accord historique contre un réchauffement planétaire aux conséquences de plus en plus inquiétantes.

L’objectif est ici d’élaborer le premier accord engageant l’ensemble de la communauté internationale à réduire ses émissions de gaz à effet de serre, afin de limiter le réchauffement global à + 2 °C par rapport à l’ère pré-industrielle. En vue de la conférence de Paris, 183 pays (sur 195) ont publié des plans de réduction de leurs émissions, une participation inespérée qui place cependant encore le monde sur une trajectoire de + 3°C.

Alors que les concentrations de gaz à effet de serre ont atteint un nouveau record en 2014, les négociations s’annoncent ardues. Tous les pays ont leurs « lignes rouges » qu’ils ne voudront pas franchir, les pays du Sud par exemple appelant le Nord, responsable historique du réchauffement, à honorer ses promesses financières.

Qu’est-ce que la veille environnementale ?

La veille environnementale peut se résumer à l’activité de veille et d’intelligence économique, relative aux informations liées à la sauvegarde de l’environnement. Pour les entreprises s’intéressant à ce sujet, cela revient donc à chercher, à collecter et à analyser les informations sur trois niveaux principalement :
• L’évolution des normes environnementales dans le monde (veille règlementaire)
• Les évènements majeurs et les signaux faibles pouvant influencer ses normes (lobbying)
• L’avènement des nouvelles technologies ayant un impact sur l’environnement (veille technologique)

Ainsi, en toute rigueur, la veille environnementale couvre un domaine extrêmement vaste qu’il est presque impossible de suivre continuellement, ce qui est particulièrement le cas pour la veille réglementaire. En revanche, une mise en surveillance des évènements majeurs ayant un impact sur l’environnement et le lieu où ces évènements se produisent peuvent permettre d’anticiper le comportement des Etats et les conséquences que cela va avoir sur les industries locales.

COP21-ours
La vitesse de fonte des glaces double tous les dix ans actuellement

Les émissions de gaz à effet de serre (dioxyde de carbone, protoxyde d’azote, méthane…) contribuent au réchauffement de la planète et proviennent principalement des activités industrielles, agricoles, de traitement des déchets, du transport et de la production énergétique. Ces émissions ont augmenté rapidement depuis la révolution industrielle et au cours du 20ème et du 21ème siècle. Cette année, et pour la première fois, il est prévu que la température globale de la planète soit d’un degré de plus que lors de la période préindustrielle (avant 1850). Le mois d’octobre 2015 était le mois le plus chaud jamais enregistré.

Les conséquences de ce réchauffement sont nombreuses :
• Hausse du niveau de la mer (déjà de 20 cm depuis 1900), notamment à cause de la dilatation thermique des océans et de la fonte des glaciers qui s’accélère (doublement de la vitesse de fonte tous les 10 ans).
• Prévision d’une hausse de l’intensité et de la fréquence des événements météorologiques extrêmes (sécheresse, tempêtes et inondations).
Il est notable que la dégradation de l’environnement provoque déjà le déplacement de plus de 26 millions de personnes en moyenne par an depuis presque une décennie. On parle de réfugiés climatiques.
• Perturbation des écosystèmes et dégradation de la biodiversité.
Le changement climatique contribue à la dégradation de la biodiversité, et vice-versa. Préserver la biodiversité et lutter contre le dérèglement climatique vont également de pair. Par exemple, la biodiversité fournit des puits de carbone naturels (les forêts, le plancton…). Selon l’Evaluation des écosystèmes du millénaire (Millenium Ecosystem Assessment) de 2005, 60% des écosystèmes sont exploités de manière insoutenable ou sont dégradés.
A cela s’ajoute les conséquences économiques avec une perte importante du PIB mondial.

Le changement climatique est considéré par les Nations unies, la Banque Mondiale, le FMI et d’autres institutions internationales comme l’une des plus grandes menaces pour l’humanité du XXIe siècle.

Cependant, il est important de percevoir la lutte contre le dérèglement climatique aussi comme une opportunité de bâtir une économie plus résiliente et pour améliorer notre façon de vivre ensemble.

Quel rôle pour la veille environnementale ?

Avec la grande variété d’énergies disponibles, il est grand temps de flécher les investissements publics et de choisir quelles énergies l’on souhaite soutenir. A l’heure actuelle, l’industrie des carburants fossiles bénéficie mondialement de 5300 milliards de dollar de subventions par an, soit 6,5% du PIB mondial alors même que ces carburants fossiles sont en premier lieu responsables des émissions de CO2. Depuis l’année 2000, c’est le charbon qui a engendré la plus forte hausse des émissions, et de très loin. Les émissions de CO2 dues aux activités humaines sont en augmentation rapide et sont de l’ordre de 40 Gt/an dont 34 Gt/an (85%) proviennent des carburant fossiles (charbon, pétrole et gaz).

COP21-graph
Emission de CO2 dans le monde par type d’énergie ou d’activité (Source : Jean-Marc Jancovici, 2013)

La veille environnementale peut être utilisée judicieusement pour identifier les acteurs importants et les lieux où il faut être dans ce monde qui est en train de changer de paradigme dans sa façon de traiter la nature. La veille environnementale peut permettre de faire parti de ceux qui vont accompagner les innovations marquantes et assurer la transition entre un projet de R&D et la production à grande échelle. Le monde de la finance suit le mouvement avec des fonds verts dits « green bonds » accessibles en bourse.

Comme l’a montré la toute première journée de COP21, le développement de l’innovation dans le domaine des énergies propres passe par l’alliance du secteur privé et de la puissance publique. Une alliance au plus haut niveau, puisque se sont retrouvés à la tribune, pour le lancement de la « mission innovation », les présidents français et américain, François Hollande et Barack Obama, le premier ministre indien, Narendra Modi, ainsi que Bill Gates, ex-PDG de Microsoft. Cela, devant un parterre d’une vingtaine de chefs d’Etat et de gouvernement, dont le Japonais Shinzo Abe, la Brésilienne Dilma Rousseff, la Chilienne Michelle Bachelet, ou encore l’Indonésien Joko Widodo et le Britannique David Cameron. L’idée de ce « partenariat » est d’augmenter substantiellement les investissements publics et privés pour développer les énergies propres, en leur donnant les moyens de jouer leur rôle dans la lutte contre le réchauffement climatique.

COP21-BillObama
Bill Gates et Barack Obama, au Bourget, pendant la COP21, lundi 30  novembre

Les technologies vertes, telles que celles des énergies renouvelables, des économies d’énergie, du bio-mimétisme et du génie écologique (ces deux dernières filières visant à préserver la biodiversité et les écosystèmes) sont des formidables leviers de création d’emplois.

L’économie circulaire, consistant à réduire notre production de déchets, de recycler et de revaloriser nos déchets, est le modèle économique de demain et favorise davantage l’activité locale, l’économie sociale et solidaire et le lien social.

Pour finir, une société bas carbone et écologique nécessite des transitions dans tous les secteurs et permettra une meilleure santé des citoyens.

Avec l’aide de la veille environnementale, les entreprises permettront à tous d’accéder plus rapidement à cet objectif. Ci-dessous, un exemple d’innovation en rupture découverte par deux chercheurs indiens à l’Université d’Oxford au sujet d’une technologie d’affichage faisant appel à des matériaux de changement de phase, qui consomme 10 fois moins d’énergie que celles présentes dans les écrans de smartphones et les télévisions LED. Vu le nombre de smartphones et de TV LED dans le monde, les économies d’énergie seraient énormes au même titre que le marché pour cette découverte, identifiée par la veille environnementale !

COP21-ChIndiens
Des chercheurs indiens à Oxford ont trouvé une innovante technologie d’affichage à base de matériau à changement de phase, pouvant décupler la durée d’utilisation des smartphones avant recharge

Vous aurez à un moment ou à un autre besoin d’accéder à de grandes quantités d’informations sur un sujet particulier, et sur le long terme (Si c’est du court terme, les requêtes sur Google ça aide bien).

Pour faire sa veille sur le long terme pour l’instant il n’y a rien de mieux que de suivre les flux rss issus de sources que vous aurez triées sur le volet, et il conviendra donc de détecter ces flux RSS.

Mais quelles sont les méthodes et outils pour détecter des flux RSS ?

Voici donc un listing des procédés les plus courants et quelques « hacks »…

Le principe des flux rss:

  • – Être prévenu dès que de nouvelles informations sont publiées ou rendues accessibles
  • – Sans avoir à se connecter aux sites eux-mêmes (Push)
  • – Pouvoir consulter en un endroit unique, centralisé
  • – Texte ou fichiers multimédias (podcasts)
  • – Contenu manipulable par l’usager

Commençons par la base: Qu’est-ce qu’un flux RSS ?

De Really Simple Syndication. C’est un protocole d’export (partiel) des articles, généralement affiché format en .atom, .rss, .xml.

screen_rss

Deux exemples bruts de technologie RSS en .xml (format le plus courant)

Que contient un fil RSS ?

  1. Le Titre de l’information
  2. Une Brève description
  3. Lien vers une page avec l’information détaillée

Avantages et inconvénients du RSS

Avantages : 

  1. Gain de temps et surveillance en temps réel
  2. Segmentation – Possibilité de s’abonner à une rubrique spécifique d’un journal
  3. Anonymat et confidentialité – Contrairement à une liste de diffusion, il n’est pas nécessaire de s’identifier
  4. Consultation aisée et information datée

Inconvénients : 

  1. Perte de temps – Si on ne sélectionne pas correctement ses sources
  2. Redondance de l’information – Cherchez la source primaire
  3. Validité de l’information – Publication plus aisée, n’importe qui peut publier n’importe quoi
  4. Non disponibilité – Toutes les sources ne proposent pas directement de flux RSS. Dans ce cas, il faut les créer

Maintenant que nous en avons fait le tour, passons à l’essentiel: Repérer et collecter des flux RSS.

1 – Repérer un flux dans une page web visuellement

C’est la méthode classique. Le petit logo orange avec ses ondes blanches s’est installé dans les usages et figure en général (mais pas toujours) avec les icônes de bookmarking sociaux, près du header (tête du site) ou du footer (pied du site). Parfois l’icône renvoie non au flux même brut mais à une page qui affiche les flux disponibles ou un reader comme feedburner qui est des plus utilisé.

2- Repérer un flux rss par une recherche
Pas de logo ? Cela ne veut pas dire qu’aucun flux n’est présent. Il peut être caché, ou simplement affiché en texte « rss » quelque part sur le site, diecret. Sur la plupart des navigateurs il y a la possibilité d’effectuer des recherches dans la page en cours. Il suffira donc de taper « rss » ou « feed ». On peut aussi afficher le code source (ctr+u) et chercher « alternate », balise annonçant (entre autres) un flux RSS.

3 – Récupérer un fil RSS via le navigateur
Nativement chrome, mozilla, et Internet Explorer 11 ne proposent pas de détecter le flux RSS sur la page en cours.

Sur Chome, le logo n’est pas présent nativement. Il faut le télécharger parmi les applications sous le nom « RSS feed reader ». Une fois installé, il se trouve près du champ URL. Lorsqu’un flux est présent sur la page, le logo s’orne d’un « + » pour l’ajouter à son reader.

Sur Mozilla: Firefox a éliminé l’icone de flux. On peut éventuellement aller à la pêche à partir des informations du site/média mais des addons comme « rss icon in awesomebar » et assimilés sont préférables. Ce dernier change de couleur quand un flux est détecté dans la page et permet de le suivre.

Sur IE: Par forcément natif sur les version récentes « simplifiées ». Il faut aller dans les options internet (roue dentée à droite), onglet contenu, « flux et composants web slice », paramètres, et cocher « Recherche automatiquement… »

Sur Safari: Et pour nos amis croqueurs de pomme, bonne nouvelle, un petit « rss » est présent dans la barre URL par défaut, qui change lui aussi en présence d’un flux.

4 – Récupérer un flux par l’URL:
Résumons: Pas d’icône, pas de texte « rss » ou « feed » dans la page, et votre navigateur ne repère pas le flux. Tout n’est pas perdu. Il reste la solution « CMS ». En effet la plupart des sites web actuels, surtout d’information, blogs, utilisent 2-3 CMS qui fonctionnent de la même manière. Il suffira pour faire apparaître un flux de taper tout simplement dans la barre d’adresse (URL) derrière le site ou la page courante /rss ou /feed. Ex. « http:www.viedoc.fr/feed/ »

Cela marche sur 90% des blogs, dont WordPress qui en constitue la plus grande partie, mais on peut tenter la chose sur la plupart des sites sans même connaître leur architecture.

5 – Google hack: inurl
Il n’y a pas de moyen direct de recherche des flux rss via Google, mais il existe une requête: inurl. Pour être plus précis cette requête se traduit par « mot » inurl:rss.xml

6- Bing hack: feed:
Le moteur de microsoft, peut, lui être utilisé directement pour rechercher des flux via la requête tour simple feed: « mot » (sans les guillements). Attention toutefois les résultats sont tributaires de la langue de recherche du moteur (Français par défaut) ce qui limite les résultats.

Quand à la qualité des résultats elle n’est pas forcément convaincante. Les mêmes sites reviennent plusieurs fois (actualités, commentaires…), certains flux sont inopérant ou datés, etc. Bref dans les deux cas, il conviendrait de les tester et des les affiner avec des opérateurs supplémentaires.

distantsearch

7 – Répertoires des flux rss (annuaires, moteurs…)
Annuaires :

  • Lamoooche, http://www.lamoooche.com/
  • Newsrss, http://www.newsrss.net
  • Fluxrss, http://fluxrss.fr

Métarépertoires:

  • RSS-Tools, http://www.rss-tools.com/rss-directories.htm
  • RSS Sourcing, www.rss-sourcing.com (portail d’annuaires sectoriels)

Moteurs de recherche:

  • InstantSearch, http://ctrlq.org/rss/
  • RSSMicro, http://www.rssmicro.com
  • RSS Search Hub, http://www.rsssearchhub.com

8- Trouver des RSS de réseaux sociaux: 
Nous avons déjà parlé du sujet réseau par réseau abondamment sur cette page. La plupart ont cessé de proposer un API ou l’ont compexifié de telle sorte qu’il devient bien plus difficile de suivre des comptes hors du réseau social. En revanche, ce qui marche:
-Sur facebook: Surveillance de compte uniquement: http://www.facebook.com/feeds/page.php?format=rss20&id=123456789123456
-Pinterest: Egalement: http://pinterest.com/pinterest_nomducompte/feed.rss

9 – Trouver des RSS de vidéos:
Youtube (récemment changé):

  • http://gdata.youtube.com/feeds/base/users/*/uploads
  • https://www.youtube.com/feeds/videos.xml?user=*
  • https://www.youtube.com/feeds/videos.xml?channel_id=UCe2J3cFALUjxa47QD3bA-7g
  • https://www.youtube.com/feeds/videos.xml?user=USERNAME

(Remplaçez le * par le nom du compte)

thesefr

 10- Trouver des RSS pour Suivre les brevets et thèses:

  • Sur espacenet (Inpi)  Brevets : Effectuez une recherche, un icône de flux rss apparaît près du titre.
  • Sur theses.fr: idem: Recherche, un flux rss (bouton s’abonner) apparaît dans les résultats.

Après d’autres réseaux sociaux c’est au tour de Youtube de fermer la porte aux flux RSS.
Pour être plus précis, Youtube arrête la compilation de données résultant sur des flux « composites », basé sur des requêtes, ce qui était bien pratique pour mettre en surveillance des milliers de vidéos, et de se constituer son propre mur de vidéos embeddées à thème.

On ne peut que regretter ce choix qui est doublement motivé sans doute par le temps et le coût de développer l’API (version officielle) et comme pour d’autres réseaux sociaux de garder les utilisateurs « à demeure » lorsqu’un flux RSS permet d’exporter une requête qui pourrait être satisfaire sur youtube même (Manque à gagner évident pour les annonceurs).

L’export de vidéos (embed) qui pourtant dévore de la bande passante n’est pour l’instant heureusement pas remis en question. Cette API disparue est l’API v2. Lorsque l’on tape la requête on a désormais la mention « no longer available ».

L’API v3 est en beta pour l’instant et nettement plus complexe d’utilisation. Yahoo Pipes étant sur la fin également, c’est encore une alternative qui s’en va définitivement.

Officiellement Youtube offre la possibilité de faire des souscriptions à des flux sous la forme d’un fichier OPML dont l’adresse se trouve ici. Toutefois le procédé est fastidieux. On peut aussi, en étant connecté à son compte youtube télécharger le fichier OPML et l’en voyer sur Feedly, (« Organiser », à gauche, « Importer OPML ». Une fois le fichier chargé il va créer un dossier avec les RSS individuels de tous vos souscriptions rss pour ajouts dans le reader. Pas aussi utile que l’ancien mais il fonctionne relativement bien. On peut aussi se replier sur l’excellent API Github de Seb sauvage: https://github.com/sebsauvage/rss-bridge.

Ou bien sûr, utiliser RSS Monitoring, qui dispose de ses propres API de surveillance…

Alors quelles étaient ces requêtes ?
Nous avions parlé de cette possibilité de suivre les réseaux sociaux depuis leurs flux RSS. Depuis l’hécatombe s’est poursuivie.

Suivre un compte précis: https://gdata.youtube.com/feeds/api/users/-/uploads
Et surtout, suivre un fil d’actualité issu d’une requête: https://gdata.youtube.com/feeds/api/videos/-/
Ou bien https://gdata.youtube.com/feeds/api/videos?q=&orderby=relevance
https://gdata.youtube.com/feeds/api/videos?q=&orderby=published
https://gdata.youtube.com/feeds/api/videos?q=&orderby=viewcount

Pour suivre un compte maintenant c’est:
https://www.youtube.com/feeds/videos.xml?user=viedoc
https://www.youtube.com/feeds/videos.xml?channel_id=UCe2J3cFALUjxa47QD3bA-7g
https://www.youtube.com/feeds/videos.xml?user=USERNAME

Pour en savoir plus : https://www.reddit.com/r/youtube/comments/339idg/youtube_just_dropped_its_support_for_rssatom_feeds/

Annoncée déjà en 2013 à l’Adobe Digital Marketing Summit comme la prochaine révolution anticipée du marketing en ligne, le Predicive Marketing est la tendance naturelle de l’E-marketing vers un ciblage de plus en plus précis, et pour la première fois, anticipatif. Ce qui fait rêver les services marketing des grands groupes c’est cette possibilité de vraiment cerner ce que veulent leurs clients, de manière diaboliquement précise, et de ce fait d’augmenter le taux de conversion jusqu’à 50% et plus.
C’est pousser simplement le concept de Google Now vers l’incentive d’achats futurs, connaissant l’historique de l’internaute et ses « habitudes de vie » par rapport à des profils statistiques et à une montagne de données analysées.

L’exemple de plus frappant et caricatural en était le profil d’une femme enceinte qui découvrait son état via les annonceurs avant même de le savoir elle-même, et a qui on propose déjà des layettes, berceaux, accessoires, en fonction du timing entre les premières recherches sur la maternité et le moment ou l’attractivité de ces produits et maximale en fonction de ses parcours de recherches récentes lorsqu’ils sont présentés au meilleur moment, ce qui accroit très nettement au final le taux de conversion. Les fabricants en question, s’ils savent gérer leur campagne de content marketing de manière intelligente, produiront évidemment des contenus informatifs en rapport avec la maternité correspondant aux requêtes les plus courantes, si possible en exact match. Big brother plus efficace que jamais pour générer du cash en anticipant la demande.

Cela ne peut se faire qu’en créant une relation entre les algorithmes comportementaux des profils en forme de silo et le timing idéal de délivrance. Cela passe avant tout par une meilleure interprétation des signaux, via les statistiques. On parle donc aussi de « predictive analytics », et dans tous les cas cela passe par la gestion des big datas, les quintillons de données récoltées sur le comportement des internautes qui vont être mis en relations les uns avec les autres. C’est sur ce créneau que s’engouffrent actuellement les budgets en R&D des créateurs de plate-formes analytiques tournées vers le marketing. Mettre en relation ces données puis mettre en adéquation ces derniers avec des profils dont l’historique est bien connu peut tout simplement tourner en « boîte magique » qui va simplement préciser quel contenu délivrer à quel moment et à quelle tranche de prospects en fonction de son historique avec la marque – au moins en théorie.

Le predictive marketing peut être aussi interprété comme l’étape suivante logique après l’automatisation du marketing (Marketing Automation). Ou bien « The ability to score leads based on digital body language » c’est à dire doubler la conversion en interprétant de manière plus fine que jamais le « langage du corps » numérique de l’internaute. Quand aux données utiles, elles sont extérieures au site et réseaux sociaux, comme les fichiers de logs TCP/IP, soumission sur formulaire, feedback par e-mail, et les bases de données accessibles au public montrant les tendances de croissance et habitudes d’achat. La gestion des big datas est l’affaire de scientifiques dans l’art de traiter les données en masse. Quand aux experts du marketing qui savent utiliser ces données par croisements, ils ont besoin de formules mathématiques pour établir des prédictions.

En clair, le predictive marketing se destine moins à des prospects et simples visiteurs mais plus en bout de chaîne, pour optimiser les relations post-achats, et pour des entreprises qui ont le personnel qualifié pour le faire en interne (ce qui nivelle vers le haut). L’intelligence prédictive puise dans les données de comportement tirées de CRM et de l’automatisation du marketing ou même au sens plus large des données web B2B Web (ce qui fait partie aux US de la galaxie « Business Intelligence« , identifier les acheteurs déjà sur le marché et les inciter à acheter des produits ou des solutions spécifiques.

Pour en savoir plus sur les aspects mathématiques des predictive analytics: http://www.optimizesmart.com/introducing-predictive-marketing-stage-business-optimization/

Notre collègue Thierry Perran avait traité de la question dans son rapport de veille complet de 36 pages sur les  tendances des Big Data, et la question du predictive marketing:

Téléchargez le rapport

De multiples innovations, voire révolutions dans le packaging agroalimentaire sont en vue pour les 5 ans à venir:

Grâce à la technologie du fait d’une pression constante de besoins en constante évolution des consommateurs, les concepteurs d’emballage tentent d’élaborer de nouvelles innovations et de créer de nouvelles solutions couvrant une grande variété de demandes de fabricants d’aliments en même temps que les consommateurs.

Dans le secteur de l’industrie alimentaire, concepteurs et ingénieurs d’emballage sont constamment à la recherche de nouvelles manière novatrices de présenter et d’emballer de manière optimisée des produits alimentaires. La sensibilisation des consommateurs et leurs préoccupations de santé continuent de croître. De même, les évolutions dans les domaines de la réfrigération et de la préservation sont plus fréquentes que jamais. En conséquence, les ingénieurs du packaging se dirigent vers des normes de sécurité renforcées tout en conservant l’intégrité du produit. Voici cinq des meilleures innovations dans ce domaine:

Le Packaging Actif

En utilisant la biotechnologie (enzymes) sur les paroi d’un récipient, les fabricants d’emballages peuvent non seulement améliorer la durée de conservation, mais aussi préserver le goût, améliorer la sécurité alimentaire et la qualité du produit conservé. L’emballage actif dépasse la simple création d’une simple frontière imperméable entre le produit et son environnement extérieur, ce peut améliorer la qualité du produit. La biotehnologie peut permettre par exemple de gommer l’amertume du jus de raisin qui commence à fermenter.

Détection d’étanchéité dans l’emballage

La méthode MAPAX LD qui fait le buzz dans l’industrie remplace le test visuel ou celui utilisant l’eau. Le gaz d’hydrogène de qualité alimentaire est en effet employé pour identifier les micro-défauts les plus difficiles à percevoir dans les emballages alimentaires. La tradition mettait l’accent sur l’intégrité de l’emballage par opposition à l’évaluation individuelle avec pour conséquence d’entraîner tout un lot au rebus, quand bien même si la faille n’est présente que sur une seule unité. En revanche, la solution à base d’hydrogène analyse chaque élément individuel dans un lot, offre un taux de validation individuel de 100% permettant de réduire les coûts.

Emballage stérile

Un brevet à été déposé par Coveris pour une solution d’emballage stérile dans la catégorie des emballage souples. Cet emballage innovant est ultra-stérile, ultra-sécurisé avec un composite d’échantillonnage, offrant à l’industrie agroalimentaire une solution incorruptible, et très résistant. ces emballages flexibles plus intelligents et plus efficaces établisent un nouveau niveau de sécurité et d’impact environnemental dans le secteur agroalimentaire.

Pasteurisation innovante

Des innovations récentes ont fait entrer le procédé ancien de pasteurisation dans l’ère numérique, avec le Tetra Pak pastorisé PF, une solution flexible et automatisée qui rend inutile l’utilisation d’une machine haut de gamme climatisée, passant entre les produits remplis à chaud ou à température ambiante, permettant un remplissage efficace et polyvalent. Cette nouvelle solution a reçu un accueil chaleureux des producteurs de sauces, pâtes, soupes, sauces, etc … La technologie de Tetra pack permet non seulement d’augmenter la productivité mais aussi la sécurité alimentaire et la qualité. Il est aussi très simple et flexible, un élément hautement souhaité dans de nombreuses opérations de transformation et de remplissage.

Nouveau système d’emballage sous vide

Un nouveau système innovant d’emballage sous vide recueille également un grand intérêt de l’industrie. La solution, Darfresh On Tray, offre un operculage de film sans bordages??? pour les barquettes de viande rouge fraîche. Procurant à la fois une meilleure étanchéité et éliminant les débris de fermeture, ce système utilise jusqu’à 40% moins de matériau de films flexible que les systèmes traditionnels, tout en permettant un fonctionnement 40% plus rapide que les systèmes sous vide en barquettes d’étanchéité classiques.

Une actualité détectée sur RSSAgro. (rssagro.com), l’outil de veille de l’industrie agroalimentaire.

La fin de Google plus ?

17 Mar 2015, Posté par D. Bocquelet dans A la une, Regard sur l'actualité

On le sait, Google + n’a jamais pu détrôner Facebook contrairement aux aspirations du géant de Mountain View depuis son lancement en juin 2011 (Voir l’historique de Google). A l’époque L’intégration de l’équipe de Kevin Rose (fondateur de Digg) devait insuffler de l’énergie au projet en 2011 (Google avait essayer d’acquérir Digg pour 200 millions de dollars en 2008 mais le projet capota). Google n’en était pas à son premier réseau social pourtant. Qui se souvient encore d’Orkut (janvier 2004)? Un réseau social « exotique » qui est maintenant surtout populaire au Brésil.

Pourtant en 2012-2013, beaucoup d’entreprises, sur des conseils de SEO, l’on joint et créé leur page entreprise. Problème: Lorsqu’un réseau est d’abord et avant tout conçu pour des particuliers, avec un système de « cercles » qui permet une diffusion en théorie ciblée (amis, privé, connaissances professionnelles, par centre d’intêrét…), on peine à trouver des débouchés pour faire une conversion efficace. la désaffection du réseau à toujours rendu facebook plus intéressant à cet égard, et s’est transformé en cercle vicieux. On a préféré se concentrer sur Facebook plutôt que Google +, le premier ayant plus d’audience et plus de fonctionnalités (ou plus d’expérience de marketing et de stratégies de contenus) orientées vers le branding du fait de son ancienneté.

Les signes de l’abandon de Google + s’accumulent depuis la fin de 2013. Premier signe tangible, Vic Gundotra quitte le bateau Google en mars 2014 (c’était le créateur de Google +). Par la suite les remaniements de personnel se sont accumulés, au dépit apparemment du réseau social. Entre autres, l’équipe de Google Hangouts à rejoint celle d’Android. La stratégie derrière était apparemment de travailler sur les widgets développés pour google + au niveau de leur intégration sur smartphone, délaissant donc le réseau en version traditionnelle « web ». L’intégration également de Youtube avec Google + à entraîné un maelström de critiques et de spam commentaires. En 2012 déjà Google + peinait à attirer des utilisateurs, ce qui contribua à accélérer le phénomène artificiellement en forçant les internautes souscrivant à gmail et youtube à avoir un compte : Temps passé par internaute (en minutes quotidiennes): Facebook 405, tumblr 89, Pinterest 89, LinkedIn 17, Twitter 21, MySpace 8, et Google+ 3…

Autre signe majeur, depuis le printemps 2014 on oblige plus les créateurs d’un compte Gmail à se créer un compte Google +. Ce dernier avait déjà provoqué l’ire de nombreux internautes, à l’instar de la fin de Google reader. On verrai donc plutôt cela comme une bonne nouvelle.

Enfin le 2 mars dernier, Google annonçait par la voix de son porte-parole Vic Gundotra le remplacement de Google + par des applications de « streams » et « photos » (éditions de photos et export facile dans d’autres applications). La petite phrase étant « kill Google plus as we know it »… Ces deux aplications seront dirigées par Bradley Horowitz.

Nous reviendrons bien sûr sur les détails de ces nouvelles applications à mesure que nous aurons d’autres informations.