viedoc

Troisième volet de notre série d’articles sur l’identification de startups. Voir le premier article ICI et le deuxième ICI.

L’innovation, entendue comme produits nouveaux (ou services) associés à une capacité rapide de mise sur le marché, doit se doter d’outils aptes à transcrire les idées en germes en faisabilité ou à augmenter la vitesse de résolution de problèmes d’ingénierie complexes. Recourant le plus souvent à des algorithmes et des objets digitaux spécifiques, certaines start-ups font naître de nouvelles façons d’envisager la conception d’objets. L’un des principaux enjeux est de lever la barrière de la connaissance de logiciels complexes pour aller vers une plus grande agilité de conception par une immersion plus intuitive et facilitée dans le concept de l’objet en cours de création.

Un outil pour ouvrir des possibles

Société basée à Lausanne (Suisse) fondée en 2018, Mirrakoi a mis au point une « CAO augmentée », à savoir une technologie puissante pour la conception assistée par ordinateur (CAO). Il s’agit du logiciel XirusCAD qui permet potentiellement à tout un chacun de devenir designer. Il simule des contacts physiques réels pendant le processus de modélisation numérique 3D et permet une efficacité, une précision et une accélération sans précédent du processus de conception interactive pour la CAO et l’ingénierie assistée par ordinateur (IAO). Subdivision, ponts, dérivations en Y, surfaces lisses, et bien d’autres possibilités sont offertes par les fonctionnalités du logiciel dont la qualité est de rendre la modélisation simple sans poser de barrière à l’élan créatif.

Rendre plus accessible le prototypage d’objets complexes

Dans l’industrie, certains domaines sont en recherche continue de matériaux alliant légèreté et résistance notamment dans les domaines des satellites, des prothèses médicales, des drones ou encore de l’automobile. Toujours en Suisse, 9T Labs, une jeune entreprise zurichoise s’est spécialisée dans la fabrication d’imprimantes 3D pour la production de composites carbone qui possèdent ces propriétés physiques. Aujourd’hui, les industriels en question sont actuellement confrontés à deux problèmes. Premièrement, le prototypage et la production à faible volume prennent beaucoup de temps et sont extrêmement coûteux. Deuxièmement, les méthodes de fabrication conventionnelles limitent fortement la complexité géométrique d’une conception. Mais, 9T Labs semble avoir résolu ces problèmes en introduisant une imprimante 3D qui traite en continu les composites renforcés en fibres de carbone. Leur produit combine un nouveau procédé de fabrication de matériaux avec les dernières technologies de capteurs et de techniques d’apprentissage (machine learning) pour donner aux ingénieurs une flexibilité de fabrication de prototypes, tout en maintenant une qualité élevée des pièces finies.

La réalité virtuelle, un incontournable de la CAO de demain

Alors que des poids lourds de l’industrie tentent de rendre compatibles leurs logiciels de CAO avec des usages de réalité virtuelle, la start-up londonienne Gravity Sketch fait évoluer son logiciel depuis 2017. Aujourd’hui, fort de soutiens dans le monde automobile notamment, une nouvelle fonctionnalité permet aux concepteurs d’ouvrir Gravity Sketch sur leur tablette, de créer un dessin 2D avec leur stylo, puis de le manipuler avec un casque de réalité virtuelle pour transformer l’esquisse en une œuvre 3D et continuer à travailler dessus. Il semblerait que ce « pont » de la 2D vers la 3D soit un progrès conséquent pour faciliter la conception. Un autre avantage de la solution de Gravity Sketch est la compatibilité du logiciel avec plusieurs casques de réalité virtuelle grand public tels que ceux de la marque Oculus, HTC ou Windows. Par ailleurs, les formats manipulables sont compatibles avec de nombreux autres systèmes et assurent une interopérabilité avec les outils existants.

Résoudre jusqu’à 100 fois plus rapidement des problèmes d’ingénierie complexes

Les outils d’ingénierie assistée par ordinateur (ou CAE pour « Computer-Aided Engineering ») de OnScale, start-up américaine crée en 2017, sont basés sur des solveurs multiphysiques exclusifs développés et validés depuis plus de 30 ans par l’une des plus grandes sociétés de conseil en ingénierie au monde pour la DARPA (Defense Advanced Research Projects Agency qui dépend du ministère américain de la Défense) et de grands clients commerciaux. Les solveurs CAE ont été conçus pour des ordinateurs mainframe hautement parallèles  (un système dit « mainframe » correspond à un ordinateur hautes performances requérant une disponibilité et une sécurité supérieures à ce que peut offrir une machine de moindre envergure) afin de traiter de très gros problèmes de simulation d’ingénierie et sont parfaitement adaptés au cloud computing moderne et au calcul haute performance. OnScale offre aux ingénieurs une mine d’informations sur la conception et des résultats de simulation très précis, jusqu’à 100 fois plus rapides que les offres de CAE traditionnelles. Les solutions OnScale actuelles répondent aux besoins de simulation des marchés des semi-conducteurs et des MEMS, du mobile 5G, du biomédical de nouvelle génération et des véhicules autonomes.

Aide à la conception dans une « économie verte »

Le français PimpYour Waste a été fondée en 2017 par de jeunes architectes qui ont eu pour idée d’exploiter le bois issu de déchets de l’industrie du BTP. La start-up a conçu un algorithme capable d’analyser chaque élément potentiellement recyclable afin de constituer une base de données qui sera exploitable non seulement pour optimiser un espace de stockage, mais également pour sélectionner à posteriori les pièces qui pourront être utilisées pour de l’usinage en vue d’intégrer des meubles. En effet, l’algorithme permet d’analyser chaque élément en une demi seconde avec les informations de taille et de colorimétrie. Ensuite, à partir de modèles préconçus par l’entreprise, il est alors possible de faire correspondre les pièces à réemployer avec les modèles de mobilier à réaliser, par le biais d’une fraiseuse à commande numérique. Cet exemple signale un changement de paradigme dans la conception de meuble, où l’on commence souvent par le design pour rechercher les matériaux qui correspondent. Ici, c’est le matériau qui prime et qui contraint le design.

L’Union Européenne a-t-elle une réaction à la hauteur de l’enjeu ?

 

La tension s’affiche au grand jour entre le géant du web et les éditeurs de presse écrite en Europe. Tiraillés entre la nécessité de voir leurs contenus indexés par Google et la volonté de valoriser leurs contenus, ces derniers ont choisi le terrain juridique pour faire valoir leurs prétentions. La directive européenne sur le droit d’auteur de 2019 en est la dernière illustration. Sur le papier, les « règles du jeu » changent, mais seront-elles opérantes sur le « terrain de jeu » de l’information grand public du futur ?

  • Qu’est ce que la Google News Initiative ?

Née en 2015, la Google News Initiative (GNI) a été lancée à une échelle importante en 2018 par Google. Par ce concept, la firme californienne souhaite mettre à disposition un package d’outils pour travailler avec des médias ou des journalistes indépendants (pigistes et reporters), mais aussi tous ceux qui voudraient vivre de l’écriture d’articles même s’ils n’ont pas de carte de presse. Certains des éléments de la suite logicielle que constitue la GNI sont déjà en service (comme News Consumer Insights, utilisé notamment par BuzzFeed), et d’autres en développement sur des plateformes open-source (par exemple sur GitHub). 300 millions de dollars seront alloués pour le projet, répartis sur 3 ans.

Faut-il voir dans ce projet la réponse de Google à une volonté, plus ou moins ouvertement affichée, de « dégoogliser » l’Internet européen ? De fait, l’épisode de la directive sur les nouvelles règles du droit d’auteur, qui a été approuvée tout récemment par le Parlement Européen, pourrait paraitre désuète à peine entrée en vigueur à l’aune de l’ambition de Google. En effet le projet consiste ni plus ni moins qu’à rendre captifs des plateformes Google, les nombreux potentiels producteurs de contenus informatifs situés dans toutes les strates de la société civile, y compris les plus locales. La granularité de la connaissance des sociétés pourrait alors devenir beaucoup plus fine.

  • Les médias européens : entre défense d’intérêts et absence d’une vision claire du cybermonde

Au niveau européen, les lignes bougent : la directive votée par le parlement le 26 mars 2019 prévoit un renforcement du droit d’auteur pour le contenu en ligne, avec pour conséquence de rendre illégal le « copier-coller », excédant une accroche, de contenus dont on n’est pas l’auteur. Il semble d’ailleurs que la France souhaite légiférer dès cet été pour transcrire le texte en droit Français. Cette directive a d’ailleurs été fortement contestée par les tenants de la neutralité du net, y voyant un dispositif de mise en place d’une censure apriori par des opérateurs privés (et non a posteriori par une instance judiciaire). Et, alors qu’il est illusoire, au vu des volumes téléchargés,de considérer qu’une décision humaine puisse décider si des contenus mis en ligne violent ou non le droit d’auteur, il semblerait que les outils techniques qui devraient s’en charger ne sont pas encore au point. Notamment pour reconnaitre une œuvre d’un de ses pastiches.

Dans la (petite) foulée de cette directive, un rapport commandé en 2017 a été rendu public le 28 mars 2019 : « Towards European Media Sovereignty » (Vers une souveraineté médiatique européenne). Faisant référence à la GNI, ce rapport précise dans ses propositions : « Bien que nous apprécions l’initiative de Google, son intelligence et sa facilité d’utilisation, elle soulève de réels problèmes pour de nombreuses entreprises, car elles dépendent de plus en plus de Google (distribution, publicité, mesure d’audience, recherche et développement). Nous estimons l’investissement public nécessaire pour diffuser les innovations dans le secteur à environ 1 milliard d’euros pour les 5 prochaines années. Ce fonds pourrait être axé sur les technologies d’analyse des données, l’intelligence artificielle, la blockchain, les neurosciences et le secteur des médias. »

A ce stade, force est de constater une différence de fond dans la formulation des stratégies ainsi que dans les moyens alloués. Dans le cas de Google, on a affaire à un projet de captation de l’information et de l’informateur à la base, avec une transformation souhaitée du métier de pigiste, qui se verrait proposé un panel de services au plus près de ses besoins. Pour l’UE, la stratégie se conjugue au conditionnel, avec quelques mises à disposition de financements. Aussi, l’UE investira dans de la technologie tous azimuts tandis que Google investira dans des moyens opérationnels articulés placés directement sur la chaine de valeur de l’information qui sera médiatisée par ses propres canaux.

Et si Google News Initiative devenait aussi incontournable pour le journaliste que Google pour l’internaute ?

Entrons à présent dans les ressorts de la Google News Initiative (GNI). Il semble que cette suite d’outils serait, dans un avenir proche, apte à transformer tous ceux qui le souhaitent en pigistes/journalistes, c’est-à-dire en personnes qui génèrent des revenus en fonction d’articles qu’ils publient. Google pourrait alors devenir le premier éditeur de presse au niveau mondial, mais au-delà de ça, il pourrait surtout acquérir une connaissance sans précédent du temps présent.

  • Ubériser le journalisme avec Google News Initiative ?

Il existe, à n’en pas douter, une puissance de l’outil Google News Initiative, qui capitalise sur de nombreux logiciels mis en place ou rachetés par la firme : il permet au journaliste/blogueur de jouer (car l’aspect ludique est indéniable) avec les données, les images, les outils de recoupement de l’information. A titre d’exemple, la recherche de l’antériorité d’une image peut donner lieu à l’invalidation d’un post d’un réseau social s’appuyant de façon fallacieuse sur l’image en question.

Par ailleurs, Google propose à qui veut s’y mettre une formation en ligne, bien faite (même si pour l’heure plusieurs modules ne sont pas opérationnels). On prend conscience de deux éléments singuliers : elle est courte (3 modules à suivre sur environ 4h30 au total), exhaustive : elle ne se limite pas au traitement de l’information mais permet de comprendre comment monétiser un travail diffusé sur le web. De plus, l’un des modules comprend la visualisation de données, permettant au non expert en data-design de rendre accessible l’interprétation de données statistiques.

Avec de tels outils, n’importe qui peut prétendre manipuler de l’information et la valoriser, mais en restant dans une sphère Google. Reste seulement à produire des articles dignes d’intérêt pour générer du clic sur les publicités qui seront associées…

Et pour consolider sa position, Google travaille également de concert avec de véritables rédactions professionnelles comme l’américain New York Times ou l’espagnol El Pais. La dimension collaborative de l’outil est mise en évidence. Par conséquent, l’ambition de Google est d’agir à tous les niveaux : pigistes, rédactions, blogueurs, etc. Tous apportent de la matière première qui sera moulinée par un ou plusieurs outils de Google.

Avec la perche tendue aux rédactions de journaux en place, on ne peut pas conclure trop vite que la GNI soit une tentative pour ubériser le journalisme. En revanche, si le projet parvient à prendre corps, Google se transformera de facto en véritable agence de presse. Car tous les contributeurs entrant des données et informations issues du terrain dans le système de Google seront autant de sources gratuites pour le géant du web. En parallèle, les rédactions des journaux étant souvent soumises à des restrictions budgétaires pour « faire du terrain », cette matière première pourrait constituer une alternative aux agences de presse, alors que les « pigistes googlisés » posséderaient potentiellement encore davantage de ramifications au cœur même de toutes les strates socio-économiques.

  • Et/ou youtuberiser le journalisme ?

Si le système réussit à s’implanter, en transformant en profondeur les acteurs de l’information, Google aurait alors accès à une source d’informations gratuites, locales, et en nombre. Les outils mis à disposition pourraient permettre d’en certifier la qualité. Les clients iraient alors s’informer auprès de pigistes-blogueurs non forcément professionnels, dont tout ou partie des revenus reposerait sur la capacité à rendre captif ledit public. Ce dernier point indique d’ailleurs qu’il faudrait se diriger vers des articles qui stimulent l’émotion davantage que la raison, phénomène bien connu des marketeurs, et qui est loin d’être récent.

Il en découle alors un point d’équilibre qui ne sera pas simple à obtenir, dans un monde où chacun peut devenir producteur/diffuseur d’informations : générer un contenu rigoureux sur la forme et le fond, original, tout en étant générateur de palpitations. Aussi, il y a fort à parier que la concurrence pourrait être rude, et qu’une infime minorité de journalistes-blogueurs parviendront à vivre de leurs posts, à l’image des youtubers.

  • Au-delà de la presse, une capitalisation de l’information sans précédent se profile

Produire du contenu journalistique rentable est difficile. Rappelons que la presse française est largement subventionnée : le reportage coute cher, le prix que le citoyen est prêt à mettre pour s’informer est faible (la légitimité de la redevance audiovisuelle est elle-même régulièrement remise en question), alors qu’une défiance vis-à-vis des journalistes est grande dans notre pays. Le modèle tient donc par perfusion et se fait bousculer en permanence par des pure players du web, alors que les générations montantes ont pris pour habitude de s’informer quasi exclusivement sur Internet.

Mais, dans l’hypothèse où la GNI prenne et si Google acquiert un monopole sur la détention de l’information brute, recoupée, fiable et géolocalisée, il serait alors facile de faire ingérer cette matière par des intelligences artificielles (rappelons que la maison-mère Alphabet investit régulièrement dans ce domaine). Et tout comme Facebook en connait beaucoup sur la vie des personnes qui utilisent ce réseau social, Google pourrait également en connaitre beaucoup sur la vie des sphères politico-économiques, globales ou locales.

Se dessine alors un monde un peu étrange, fait d’algorithmes et de prédictions à des échelles plus ou moins grandes. Fort de cette connaissance, Google pourrait non seulement étendre la capacité d’audience et le ciblage de produits et services (marketing) mais aussi contribuer à manipuler les foules (si l’on songe aux possibilités que donne le CLOUD Act américain de 2018).

  • Le droit ne peut être une stratégie tenable dans une révolution industrielle

Pour en revenir à la bataille qui se joue à l’heure actuelle, il semble logique que les éditeurs de presse aient choisi le terrain juridique pour freiner l’avancée de Google sur leurs plates-bandes. Il faut remarquer qu’au final, ils agissent comme la corporation des taxis à l’arrivée d’Uber, car on ne peut pas demander à une profession de se réformer au point de se dissoudre. En revanche, il est moins compréhensible que le législateur n’accompagne pas ces entreprises de presse dans une transformation profonde qui sera inéluctable car cohérente avec les opportunités offertes par les outils numériques en cloud computing. Concrètement, nous ne pouvons que déplorer qu’aucun projet industriel comparable à la GNI ne soit programmé pour appuyer la presse européenne. Tout juste a-t-on ces lignes financières dont on espère (mais l’incantation est-elle une stratégie ?) qu’elles feront émerger spontanément un potentiel concurrent frontal à GNI. Il semble malheureusement que la stratégie adoptée à l’échelle européenne soit le repli tactique. Il devient alors possible, pour ne pas dire probable qu’à moyen terme, la majorité des contenus d’information européen soit régie en dernier recours par le droit californien, et que le droit d’auteur en presse, tel que redéfini cette année, ne soit qu’une chimère.

(*) : nous entendons par « presse écrite » la presse papier et la presse numérique

Louables intentions

Internet est à l’origine un réseau décentralisé dans lequel ont éclos, malgré une volonté initiale de neutralité, des oligopoles relatifs à certains services (navigation, vidéos, commerce, plateformes spécifiques) prenant souvent des positions dominantes dans certaines grandes régions du monde : les GAFAM et leurs homologues asiatiques (les BATX) en sont les meilleurs exemples. Leurs modèles économiques ont un point commun : la captation des données personnelles et l’algorithmie de ciblage marketing. Le RGPD vient, en théorie, « siffler la fin du match » pour le territoire européen, avec pour objectif de rendre explicite le consentement de la captation des données personnelles. Auparavant, le processus de consentement implicite était devenu si incolore et inodore que peu de personnes avaient conscience d’ « être le produit » de services « gratuits », en clair de transmettre des données personnelles.

Mais le diable se cache dans les détails

Depuis mai 2018, le RGPD a drainé une série de contraintes pour les sites Internet consultables depuis l’Europe, et les entreprises et institutions qui les mettent en ligne. Une couche technique, administrative et juridique complexe est venue s’ajouter aux organisations pour recenser les données personnelles internes et externes manipulées. On considère pêle-mêle les processus associés à ces données, les risques au regard de la captation potentielle de données par des tiers que ce soit par malveillance ou inadvertance, les impacts des risques, les mesures envisagées, etc. Par ailleurs, les procédés de mise en place d’un consentement éclairé de l’octroi des données personnelles et les procédés visant à permettre à tout un chacun de pouvoir se radier des listes où l’on a été inscrit sont autant de défis qui, s’ils ne sont pas insurmontables, constituent une lourdeur non négligeable dans un contexte français où l’administratif est jugé (probablement à raison dans de nombreux cas) contre-productif et anti-compétitif.

Quant au veilleur, il sera nécessairement freiné dans sa navigation sur le web : les clics liés aux paramétrages des cookies, l’accès réduit à des sources extra-européennes qui ne souhaitent pas se conformer au RGPD, en particulier étatsuniennes, induisent des pertes de temps ou incitent à l’utilisation accrues de VPN (Virtual Private Network) pour ceux qui en ont la possibilité, fonction de la politique de Systèmes d’Informations de l’entreprise. En pratique, cette restriction de l’accès à l’information peut s’apparenter à une forme « soft » de déni de service, et un renoncement à la neutralité du Net. Par ailleurs, il a été peu dit que le RGPD confère à l’Internet européen une dimension protectionniste et extraterritoriale, puisque tous les sites situés hors UE et désirant atteindre un public européen sont tenus de se conformer au RGPD.

Une bataille d’indépendance en filigrane ?

Cependant, il faut bien reconnaitre que le RGPD donne une impulsion forte pour s’émanciper de services Internet américains. De la révélation de PRISM par Edward Snowden en 2013 à celle des vols massifs de données Facebook par Cambridge Analytica en 2018, il est devenu lisible pour tous que la donnée personnelle a une valeur et qu’on ne laisse pas un objet de valeur sans protection. D’ailleurs, il a bien été constaté que la réticence de départ des acteurs du cloud computing européen s’est commuée en opportunité de ravir quelques parts de marché à leurs homologues américains.

Il est encore tôt pour évaluer l’efficacité réelle du RGPD en comparaison avec les grands efforts demandés aux organisations, petites ou grandes, pour se mettre en conformité. On sait toutefois que même les institutions européennes ont du mal à prendre le pas (voir ICI) et que les pays du nord de l’Europe ont moins de difficultés pour l’adopter, probablement du fait de cultures plus promptes à se conformer aux règles. Depuis fin 2018, les sanctions ont commencé à être distribuées. Même si les spectaculaires 50M€ d’amendes administrés à Google par la CNIL pourraient paraitre disproportionnés ou dérisoires en fonction des points de vue, il existe en pratique un système de sanctions graduel, à l’image d’HADOPI. Cependant, si l’on regarde le bilan des sanctions de cette dernière en 2018, au terme de 9 années d’existence, 10 millions de mails de premier avertissement ont été envoyé, 920 000 mails de second avertissement, 3000 comparutions devant le tribunal et…101 contraventions. Même si comparaison n’est pas raison, et que HADOPI était plutôt censée viser les particuliers alors de le RGPD cible davantage les organisations, on peut noter que la taille du système répressif reste comparable.

Comme pour tout changement profond, on comptera des gagnants et des perdants dont la répartition sera redistribuée par rapport à la situation précédente, même s’il est espéré que les gagnants seront européens. Il y a cependant fort à parier que les parties prenantes du Web s’adapteront sans problème à ce nouvel enjeu. Elles sont habituées depuis les années 1990 à des changements incessants des structures de l’Internet alors que celui-ci est devenu un espace majeur des jeux économiques et relationnels. A titre d’exemple et si l’on se replace outre-Atlantique, un journal en ligne tel que celui du Los Angeles Times a choisi de se conformer au RGPD, alors que ce n’est pas le cas pour le Chicago Tribune qui n’est toujours pas accessible. On peut y voir une simple logique de marché : Los Angeles intéresse probablement davantage les européens (notamment ceux de la « Tech ») que Chicago…

Les canulars d’entreprises du 1er avril 2019

09 Avr 2019, Posté par adminviedoc dans Unmarked

Comme tous les ans, nous collectons et partageons quelques blagues du 1er avril que nous avons trouvées particulièrement drôles, corrosives ou décalées. Notons que cette année, un acteur notable de la technologie, Microsoft, enjoint ses collaborateurs de ne pas se livrer au traditionnel exercice (cf. ICI). La firme considère à présent que le retour sur investissements n’est pas au rendez-vous. Il faut dire aussi que certains canulars sont parfois allés trop loin. Serait-ce un signal d’une époque ou la technologie deviendrait moins « fun »? Si beaucoup de canulars ont un petit air de déjà vu, certains poussent loin la créativité, la réalisation ou les deux. En voici un petit échantillon avec notre classement.

Numéro 1 : Maddyness, magazine axé sur l’innovation a présenté une start-up particulière, « GobeWater » dont l’innovation consiste à « éviter de perdre son temps en s’abreuvant », en prenant des cachets hydratants. S’il n’est pas franchement hilarant, l’article reprend tous les codes associés au monde des start-ups et des levées de fonds faramineuses, avec des néologismes bien sentis.

Numéro 2 : Honda, avec une voiture de type « Retour vers le Futur ». En effet le modèle PASTPORT possède tous les attributs des voitures des années 90. Mais surtout le clip de présentation vaut le détour tant il réhabilite le kitsch…qui met de bonne humeur.

Numéro 3 : NVIDIA avec une intelligence artificielle pour gamers : la R.O.N. Se présentant comme une box digne de Philippe Stark, la R.O.N interagit avec son utilisateur à l’aide d’un hologramme. A mesure de l’avancée du clip, on découvre une critique subtile des adorateurs de l’IA…

Numéro 4 : Lockeed Martin, le géant de l’industrie de l’armement américain, se lance dans le luxe par la cosmétique. LVMH n’a qu’à bien se tenir… En revanche, son parfum est conçu par des ingénieurs : on ne se refait pas.

Numéro 5 : Tinder, célèbre site de rencontres, introduit une vérification un peu spéciale : la taille de ses utilisateurs. Au-delà de la blague, cela permet de faire passer le message indiquant que la plateforme est bien consciente que certains de ses utilisateurs s‘arrangent quelque peu avec la réalité pour ce qui est de leur physique…

 

Veille Startups : 4 entreprises aux matériaux novateurs

04 Avr 2019, Posté par adminviedoc dans Unmarked

Deuxième volet de notre série d’articles sur l’identification de startups. (Retrouvez ICI le premier article sur les startups de la lutte anti contrefaçon).

La transformation de l’économie linéaire (transformations de ressources naturelles – fabrication de produits – utilisation de produits – mise en décharge) en économie circulaire (les déchets constituent de nouvelles ressources qui sont réinjectées dans les productions) est devenu progressivement l’un des enjeux de l’époque.

La Feuille de Route de l’Economie Circulaire adoptée en France en 2018 confirme la tendance, alors que de nombreuses entreprises se sont « mises au vert » depuis plusieurs années. Evidemment, les transformations s’accompagnent d’innovations.

Dans le domaine des matériaux, de nouveaux venus apparaissent, possédant la qualité d’être biosourcé, biodégradable, les deux, ou ayant des propriétés particulières. En voici quelques exemples, mis au point par des startups.

Le français WOODOO dispose d’une technologie multi-brevetée, qui permet de modifier le bois pour produire un matériau aux propriétés surprenantes. Le procédé consiste à prendre du bois et à en extraire une molécule qu’on appelle la lignine. On remplace ensuite ce composant par une résine végétale qui durcit à l’intérieur du squelette du bois. Le caractère innovant tient déjà au fait qu’ils sont parvenus à extraire la lignine sans détruire la micro-architecture du bois d’origine. De plus, le polymère injecté donne de nouvelles propriétés physiques et optiques au bois. Il devient ainsi translucide, imputrescible et résiste mieux au feu. Il nécessite également beaucoup moins d’entretien car il ne s’oxyde plus au contact de l’air et de l’humidité. Les potentialités sont grandes dans les domaines de l’architecture, des charpentes et du mobilier.

L’italien MOGU (signifiant champignon en chinois, peut-être en vue d’un marché visé…) a pour concept de réaliser du mobilier à partir de matériaux à base de mycelium, qui est la partie blanche souterraine, à la fois robuste et légère, sur laquelle grandissent les champignons. Il utilise par exemple les filaments du pleurote en forme d’huître, une variété blanche à la forme de soucoupe inversée. Ici, le design est tel que les objets ne sont pas travaillés mais grandissent par eux-mêmes, tels des plantes. Dans un moule fait de bois, de plastique, d’argile ou de plâtre, le champignon se nourrit de déchets organiques (du lin, de la paille, du chanvre qu’il décompose tout en déployant ses longues et fines tentacules). Il faut y appliquer évidemment des conditions très spécifiques de propreté, de température et d’humidité. Selon l’entreprise, les matériaux sont intéressants, tant au niveau des prix que des performances, comparativement aux solutions existantes sur le marché (bio et fossiles).

L’anglais MaterializeX a créé un adhésif non toxique breveté pour servir d’alternative à l’urée-formaldéhyde. Materialize.X prévoit d’accorder une licence à des entreprises chimiques ou à des fabricants de bois d’ingénierie pour qu’ils puissent fabriquer l’adhésif sur place. Mais la start-up va plus loin en fournissant également aux usines de bois un logiciel qui utilise l’apprentissage machine pour optimiser la façon dont leur adhésif est utilisé dans le processus de production. En effet, il existe actuellement une formule standard pour créer du bois en contreplaqué : prenez des copeaux de bois, ajoutez de l’adhésif et pressez-les ensemble jusqu’à ce qu’ils soient collés à la forme que vous voulez. Mais cette formule standard ne donne pas toujours les meilleurs résultats car elle ne tient pas compte des variables qui peuvent changer d’un jour à l’autre, comme le type de bois, la température, l’humidité, etc. MaterializeX permet donc à son adhésif non toxique, via son algorithmie, d’améliorer qualitativement la production de planches de bois en contreplaqué.

L’anglais AEROPOWDER a conçu un matériau d’emballage à partir des plumes de volailles. Cet emballage possède des propriétés thermiques. Les plumes excédentaires ont été transformées en un textile d’isolation unique et de haute performance, puis recouvertes d’une doublure compostable de qualité alimentaire.  Pour un produit emballé à 0°C, une température inférieure à 5°C pourrait être assurée, selon les tests, pendant 53 heures. Ce produit baptisé « Pluumo » pourrait être utilisé pour remplacer les emballages en polystyrène conventionnels (donc issu du pétrole) et permettre des livraisons plus durables.

La finalité d’un processus de veille n’est pas une question si évidente qu’il n’y parait. L’Intelligence Economique est souvent encline à situer la veille au service des volets offensif et défensif d’une stratégie, laquelle sert une politique ou une vision constituée d’objectifs de moyen et long termes. Il faut remarquer que notre époque questionne cette approche.

En effet, lorsqu’on est sur une période de faible variabilité des rapports de forces sur un marché (nombre limité de nouveaux entrants et parts de marchés stables des acteurs principaux), qui comporte peu de changements de règles du jeu (législation, réglementations, normes et usages), on peut bâtir une stratégie de long terme visant à garder ses positions ou à pénétrer le marché. Notons que dans ce cas de figure, on a affaire à des stratégies souvent focalisées sur la conquête de marché.

Or, s’il est vrai que sans stratégie rien n’est envisageable, de nombreuses entreprises sont à présent mises dans un bain concurrentiel mondial, qui les incitent davantage à opter pour des comportements de survie, selon deux axes principaux : innover et afficher une rentabilité actuelle ou future. Progressivement, vendre des produits devient secondaire (du moins dans un premier temps) : ce qui compte avant tout est de rassurer les investisseurs ou actionnaires (l’exemple d’Amazon est éloquent à ce titre, voir ICI). Au travers d’innovations présentées comme disruptives, ces parties prenantes se sentent rassurées, notamment en anticipant des profits substantiels à une échéance palpable. Dans le même temps, une partie croissante de la valeur des produits est transférée vers la réputation de la marque, assurant parfois des positions dominantes mais présentant également des vulnérabilités accrues aux attaques informationnelles.

Depuis la fin des années 1970, les différentes phases de mondialisation et les technologies de l’information ont modifié considérablement le jeu économique par la multiplicité des acteurs et un accès démocratisé à une information surabondante. Aussi, dans l’économie actuelle, la veille se voit affublée d’une double injonction : alimenter la stratégie et alimenter l’innovation. A notre niveau, nous notons un glissement souvent (mais pas toujours !) significatif vers le deuxième aspect. Autrefois vue exclusivement comme un outil d’aide à la décision, la veille devient davantage un outil d’aide à l’innovation et de stimulation de la créativité.  Dans les deux cas, il s’agit d’alimenter les processus internes de l’entreprise, à des niveaux différents, avec des informations utiles, ayant passées des filtres rigoureusement paramétrés. A ce jour, et en attendant l’homme « augmenté » promis par les tenants du transhumanisme ou l’Intelligence Artificielle de niveau 5, des outils techniques tels que ceux que nous proposons (voir ICI) ont toute leur raison d’être. En effet, rechercher de l’information coûte un temps et une énergie précieux qui seraient sans doute bien mieux mobilisés dans des activités où il est difficile de gagner du temps et où l’humain est la clé de voûte : l’analyse, la mise en perspective et l’inspiration.

S’il y a eu une époque où la rétention d’information pouvait assurer des positions dominantes, nous sommes désormais entrés dans une ère où l’information est disponible si tant est que l’on abatte la barrière de complexité qui nous en sépare. Et nous ne sommes pas encore entrés dans une ère où l’appropriation de l’information, qu’elle soit analytique ou symbolique, revient aux machines. L’Homme reste aux commandes de la finalité du processus de veille.

Dans le cadre de nos veilles technologiques, nous sommes régulièrement amenés à identifier à travers le monde des startups positionnées sur un domaine particulier et avons décidé de publier une petite série d’articles consacrée à des éléments d’analyses concurrentielles succinctes issues de nos travaux de recherche sur Internet.

Dans ce premier volet, portons un regard sur quelques entreprises européennes qui sont en train de mettre sur le marché des procédés innovants en matière de lutte anti-contrefaçon. Ce marché présente un haut potentiel et les chiffres parlent d’eux-mêmes : en 2018, l’Office européen pour la Propriété Intellectuelle (EUIPO) a estimé une perte de 60 Milliards d’€ pour 13 secteurs clés de l’économie, soit 7.5% de leur chiffre d’affaire pour l’Europe et 5.8% pour la France seule.

Technologies où l’on couple des étiquettes et des smartphones, via de l’algorithmie

Le parisien CYPHEME, fondé en 2016, propose une association entre une étiquette spéciale adossée au produit et une application mobile pour en garantir l’origine. Utilisant des technologies basées sur l’intelligence artificielle, l’hyperphotométrie et un identifiant chimique spécial, l’entreprise entend gagner ses parts de marché par une très grande fiabilité du process. Notons de la discrète société genevoise SwissAuthentis propose une technologie analogue en tout point et baptisée « Smartchrome » en tant que marque déposée. Seules ces deux sociétés évoquent la technologie d’hyperphotométrie, technologie qui, au demeurant, ne semble pas faire partie des publications scientifiques ou brevets de ces dernières années et dont nous cherchons toujours la définition…. Cela peut néanmoins laisser penser (mais nous n’avons pas de preuve formelle) que la technologie de Cyphème pourrait avoir intégré le portefeuille de technologies anti-contrefaçon de SwissAuthentis, solidement implantée à l’échelle mondiale.

Toujours à Paris et davantage centrée sur la mode et le luxe et se voulant peu onéreuse, la solution d’authentification GEMETIQ passe par l’échange d’informations entre l’identifiant d’une puce NFC (Near Field Contact) et toutes les informations enregistrées dans une base de données. Ainsi, la personne qui scanne la griffe a accès à l’authentification du produit et à sa « carte d’identité » qui répertorie des informations renseignées par les marques telles que la photo, la référence du modèle, la taille, la couleur, la composition, le distributeur agréé, le lieu de vente, etc. Gemetiq utilise une puce NFC intégrée directement dans une griffe textile par le fabricant. Elle peut résister à une température de lavage allant jusqu’à 150 degrés, ce qui confère un avantage indéniable dès lors que l’on a affaire à des produits textiles.

La blockchain, une technologie adaptée par nature à l’anti-contrefaçon

Par son fonctionnement non hiérarchisé, la blockchain offre des solutions particulièrement résilientes aux détournements. C’est donc une technologie dont se sont emparés certains concepteurs de systèmes anti-contrefaçon…tout en gardant le logiciel de traçabilité à leur niveau, contrairement aux monnaies virtuelles passant par une blockchain dont le but, outre la fiabilité, est de se passer de l’intermédiation bancaire.

Le français ARIANEE s’est donné pour ambition de construire le premier enregistrement perpétuel, anonyme et digne de confiance de tous les actifs du monde, permettant un lien qualifié de « révolutionnaire » entre les propriétaires et les marques. Arianee aspire à devenir le premier protocole universel au monde pour la création et le transfert des certificats numériques de propriété et d’authenticité pour les objets. Tous les propriétaires suivants géreront le parcours de leurs biens dans le temps en maintenant le contact avec les concepteurs des produits, grâce à ce qu’ils ont nommé le Smart-Link et qui est basé sur l’inscription sur une blockchain. Cette solution semble adaptée à des produits qui ne perdent pas de valeur au cours du temps, voire qui en gagnent. Cela dit, elle n’est qu’une mutation numérique d’un certificat d’authenticité, avec en plus un lien maintenu avec le fabricant d’origine.

Le suisse ScanTrust propose un système basé sur 3 exigences : l’authentification du produit, la traçabilité le long de la chaine logistique et l’engagement du consommateur final. Le produit est doté d’un QR Code breveté par ScanTrust qui contient une couche de sécurité via un graphique qui se situe au centre du QR code. Il s’agit d’une image dense, pseudo-aléatoire, qui authentifie un produit et dégrade en qualité lors de la copie. Les codes de sécurité ScanTrust sont généralement téléchargés sous forme de fichiers image, par l’imprimante, à partir du serveur ScanTrust. Au niveau de l’application, le tableau de bord de type de ScanTrust affiche des données d’analyse qui permettent d’identifier les points susceptibles de contrefaçon et le détournement de produits importés en parallèle. Cela confère une meilleure visibilité sur les destinations des produits, ainsi que des éléments d’identification des consommateurs finaux. Certaines informations clés sur les produits peuvent être rendues publiques sur une blockchain. Une fois stockées, les données ne peuvent pas être modifiées ou supprimées. ScanTrust s’appuie sur les principales technologies de registres distribués telles que Hyperledger, BigchainDB, et Ethereum.

Dernier exemple, l’anglais Blockverify se focalise sur la contrefaçon des secteurs de la pharmacie, du luxe, des diamants et de l’électronique. Chaque produit est doté d’un tag unique inscrit sur une blockchain. Chaque produit est alors tracé le long de la chaine de distribution, lors de l’achat (avec une association à l’acheteur). Selon Blockverify, cette solution permet également de s’assurer que les entreprises ne procèdent pas à la contrefaçon de leurs propres produits. Mais selon nous, il s’agit d’un argument marketing difficile à avancer auprès de clients…sauf dans le cas précis où ceux-ci ont de sérieux doute sur leurs propres centres de production. Par ailleurs, tous les points de vente peuvent, avec une application mobile, connaitre l’historique de chaque produit.

Sur la liberté des agents économiques et leur accès à l’information

J’ai été frappé par une analogie faite par l’économiste Jean-Marc Daniel entre le modèle des économistes de la concurrence pure et parfaite et le modèle des physiciens du gaz parfait. C’était dans l’émission de BFM Business « Les Experts » du 08 janvier 2019 (10’30’’, disponible ici). Une petite recherche sur ce sujet m’a conduit à un article (disponible sur cairn.info) que ce même économiste avait publié en 2008, où il précisait : « La notion de marché concurrentiel est en économie comme le gaz parfait du physicien : nul ne pourra l’observer, et pourtant son analyse permet de tirer des conclusions à la fois simples et efficaces. Le marché existe mais nul ne le rencontrera… »

En fait une différence de taille existe entre les deux notions. Le gaz parfait des physiciens, s’il est un modèle, est vu comme une première approximation du réel. Aucun physicien n’a pour ambition de transformer un gaz en gaz parfait. Le scientifique aura une démarche de modélisation du réel pour le comprendre certes, éventuellement pour utiliser au mieux certaines propriétés ou certaines ressources. L’équation des gaz parfaits est un cadre de compréhension simple qui ne demande qu’à être complexifié, et l’équation des gaz réels existe. Et si la plupart des gaz (et mélanges de gaz) se comportent comme des gaz parfaits aux faibles pressions, il faut rappeler que sur terre ils évoluent de manière générale au moins à la pression atmosphérique. En revanche, derrière la notion de marché concurrentiel pur et parfait, l’enjeu, tel que je le comprends dans les interventions de M. Daniel, n’est pas tant de décrire le réel par approximation que de constituer un objectif vers lequel il faut tendre, une idéologie en somme. En effet, alors que le gaz parfait est en réalité lié à une équation et une modélisation que l’on a réussi à élaborer en supposant les molécules comme des entités abstraites ponctuelles, la concurrente libre et parfaite est liée à un état ontologique présumé des acteurs du marché dont les propriétés me semblent être : la liberté d’action infinie, la capacité d’accès à l’information infinie, la capacité de traitement de l’information infinie et la rationalité des choix selon l’« intérêt » de tout un chacun. Bref, l’homme de la théorie du marché concurrentiel serait un dieu !  Et si l’on peut représenter schématiquement une molécule par un point, il me semble hasardeux de représenter un individu absorbé par son contexte propre par un être omniscient.

Mais par-delà cette différence de fond qui sépare le gaz parfait du marché concurrentiel, au fond, serait-il souhaitable qu’un gaz soit parfait ? Pour prendre l’exemple de l’air que nous respirons, je doute que nous puissions simplement vivre si celui-ci était parfait, car notre constitution biologique s’est appuyée sur un air bien réel pour produire notre évolution. De la même manière, serait-t-il souhaitable que la concurrence soit pure et parfaite ? Il est clair que dans cette hypothèse la notion de liberté individuelle semble cardinale. Or la liberté de chacun est par nature restreinte, car les capacités à interagir avec le monde qui nous entoure sont limitées. Elles le sont en particulier par les performances de notre corps humain, qui de surcroit, sont inégales entre les individus, à la différence des molécules de gaz, qui sont des « clones ». Par ailleurs, chacun n’est pas doté de la même manière à la naissance et dans ses jeunes années, en termes de patrimoine matériel et socio-culturel pour que le marché soit, par sa nature même, un terreau fertile à l’épanouissement de tous car intrinsèquement producteur d’égalité.

En conséquence, et c’est là tout le propos du présent article, la notion de protection est un préalable à la notion de liberté afin d’assurer que des libertés exorbitantes pour les uns ne conduisent pas à un système de domination sur les autres. Cela serait d’ailleurs contraire aux finalités d’une économie libérale qui serait permise par un État arbitre, en surplomb d’une concurrence nécessaire à l’excellence, mais organisée pour la satisfaction d’un intérêt général. Tendre vers la concurrence pure et parfaite interdit quelque part de penser les bonnes restrictions de liberté à appliquer afin justement de protéger les libertés de tous.

Par Christian Gnana.

 

Dernièrement, une série d’articles issus du blog « Outils Froids » de Christophe Deschamps ont retenu notre attention. Christophe  y partage sa méthode où il met à profit deux outils de mindmapping (l’un payant : Mindmanager, l’autre gratuit : Freeplane) pour exploiter des articles issus du web, après une conversion au format PDF et un classement dans des dossiers identifiés. Intitulés « Mieux exploiter l’information issue de la veille avec le mindmapping », ces articles peuvent se consulter ici, ici ainsi qu’ici.

Pour poursuivre la réflexion, il est possible d’utiliser un autre outil de mindmapping nommé « Docear », gratuit, open source et basé sur Freeplane (téléchargeable ici, un bémol : l’ensemble du logiciel et de la documentation est en anglais !). Cet outil a été conçu à la base pour gérer de la littérature académique et les références s’y rattachant.

Si l’on couple Docear à un lecteur de PDF qui donne la possibilité de réaliser des surlignages et des commentaires dans les documents (nous utilisons par exemple « PDF XChange Viewer, gratuit et téléchargeable ici), il sera alors possible d’afficher directement dans la carte mentale (ou « mindmap ») l’ensemble de ces surlignages et commentaires. On a ainsi la possibilité d’afficher uniquement ce que l’on considère comme essentiel, la carte mentale obtenue contenant presque uniquement les informations que l’on souhaite exploiter.

Comment procéder ?

Dans Docear, il faut d’abord faire « Create a new project » et donner lui un nom, puis enregistrer la carte vierge à laquelle vous aurez également donné un nom (ici : « Veille X »).

Puis liez au nœud principal de la carte mentale un dossier contenant les PDF que vous souhaitez exploiter en faisant un clic droit, puis « Monitoring/Add Monitoring Folder ». Et pointez sur l’emplacement du dossier concerné.

L’importation des fichiers se fait, avec des hyperliens (au niveau d’icônes « PDF ») permettant d’accéder directement aux fichiers depuis la carte mentale. (Notons qu’un message en rouge apparait concernant des défaillances de la fonction d’importation des annotations. Cependant, cela n’a pas été constaté à notre niveau pour l’instant.)

Voici par exemple ce que cela donne avec 5 articles ayant été convertis en PDF. Outre que le nom du document apparait à droite d’icônes « PDF », certains éléments des articles peuvent également apparaitre (notamment des titres et sous-titres s’ils sont reconnus comme tels).

Si l’on décide d’exploiter le premier article, il faut l’ouvrir dans notre lecteur PDF XChange Viewer et y apposer des surlignages (ici en jaune) et commentaires. Ne pas oublier au terme de l’exploitation de chaque PDF de procéder à son enregistrement, actant ainsi les modifications apportées.

Ceci fait, cliquez au niveau du nœud principal de la carte sur la double flèche bleue permettant de rafraichir les liens vers le dossier surveillé.

On a alors l’ensemble des éléments ajoutés dans le PDF qui apparaissent au niveau N+1 du nœud relatif au document exploité.

En cliquant sur l’icône précédant le texte de chacun des éléments rajoutés, il est alors possible d’aller directement au niveau des éléments de texte sélectionnés dans le cœur du document. Cette fonctionnalité s’avère pratique lorsque l’on exploite des documents volumineux tels que des rapports, articles scientifiques, thèses, etc. en plus des articles quotidiens issus de sa veille. Notons que le texte des nœuds ajoutés automatiquement suite au surlignage entre d’un bloc dans la carte mentale, avec le saut de ligne automatique du PDF conservé. Si l’on veut par la suite les exporter en citations par copier/coller, l’application « Ditto » pourra se révéler bien utile.

De nombreuses entreprises font aujourd’hui appels à nos services pour identifier des startups aux 4 coins du monde.

Comme mentionné dans un article précédent (ici), VIEDOC en tant que partenaire des salons ADF & PCD s’est impliquée cette année dans l’identification et la présélection de start-ups du domaine du packaging.

A titre d’exemple, voici 2 start-ups que nous avons identifiées et que vous pourrez visiter sur le salon, au niveau de l’espace « Accelerator ».

  • Living Ink est une entreprise américaine de biomatériaux qui utilise des technologies d’algues, et donc durables, pour remplacer certains produits dérivés du pétrole tel que l’encre. L’ambition est de développer une variété de produits d’encre et de couleurs, y compris l’encre numérique. Actuellement, les encres sérigraphiques, typographiques et offset sont en cours de développement et de perfectionnement.

  • Paptic est une entreprise finlandaise qui a conçu un matériau éponyme destiné à remplacer le plastique dans plusieurs applications. Ce matériau partage des propriétés avec les textiles et le papier et a permis de constituer un sac à base de cellulose 100% biodégradable. Les propriétés suivantes le rendent particulièrement prometteur : résistant à l’eau, léger, étirable, recyclable et bon marché. Paptic a reçu un soutien de l’Union Européenne ainsi que plusieurs prix d’innovation et collabore actuellement avec les Galeries Lafayettes.

Les autres « pépites » que vous pourrez apprécier, voire avec qui vous pourrez tisser des relations d’affaires, sont :

  • Glancy 3D : se présente comme la première intelligence artificielle de vision par ordinateur pour l’évaluation et l’optimisation de la conception des emballages.
  • L’Indispensac : concepteur d’un sac 100% recyclable et « made in France »
  • Revinax : plateforme de réalité virtuelle qui crée, édite et distribue des tutoriels de formation virtuelle pour les professions hautement qualifiées et la formation de précision.
  • Ashana. B : combine des cosmétiques luxueux, biologiques et végétaliens, qui nettoient, hydratent et régénèrent les cellules tout en respectant les différents types de peau et de cheveux.
  • Packitoo : se définit comme la première application Web de processus intelligente pour le développement, l’achat et la vente d’emballages personnalisés.
  • Kalys Cosmetics : marque innovante de cosmétiques naturels pour le visage et le corps, située près de Marseille.

Pour plus d’information, consultez la page « Accelerator » du salon ici.