Regard sur l’actualité

Un infographie d’Intel sur ce qui se passe en une minute d’internet (en 2014), avec des prévisions de croissance jusqu’en 2017.

-Netflix et Youtube (videos) comptent pour 50% du trafic
-Les recherches Google: 4.1 millions de requêtes la minute
-3.3 millions de contenus partagés sur facebook
-347 222 twits
-57840 pages pinterest vues
-38194 nouvelles photos sur instagram…
Croissance prévues pour les réseaux sociaux en 2017: 13 fois depuis 2012, 3 fois plus de personnes connectées dans le monde.
4 Zettabits de données enregistrées sur les serveurs en 2013: C’est à dire 4 000 000 000 000 000 000 000 bits.

 

Pour mémoire, pas mal de « geekeries » ont vu le jour grâce à  une campagne de crowdfunding sur Kickstater, la plus-grande plate-forme de levées de fond au monde. Et jusqu’à présent, Oculus Rift (lunettes 3d dont on a déjà parlé amplement ici) détenait la palme des levées de fonds. Et bien tenez-vous bien car ce record pourrait tomber pour… le « plus froid » (« the coolest »), une glacière !.

Comment un objet aussi ¨banal peut-il provoquer un tel engouement ? La période estivale arrivée sur le tard serait-elle une simple coïncidence d’agenda ?

Toujours est-il qu’après avoir récupéré 5 millions de dollars, la production serait lancée fin de cette année et les premiers clients devraient recevoir le produit en  janvier-février 2015. Son créateur, Ryan Grepper, n’en est pas à son premier objet produit  en crowdfunding, mais d’après ses propres paroles, c’était le plus complexe de tous…

Pourquoi se contenter d’une simple glacière au XXIe siècle… Le « Coolest » est compartimenté (glaces/boissons), dispose d’une réserve pour recharger un iphone ou assimilé, brancher un shaker, de compartiments de rangements pour des assiettes et un couteau en céramique, et des hauts-parleurs, avec une connexion internet pour servir de chaîne hi-fi portative pour une ambiance fiesta et margarita (et des roulettes et poignée pour le déplacer comme une valise). Ne manque plus que le barbecue intégré… Un objet « cool » qui devient donc en plus de sa vocation « the coolest ».
Prix marché annoncé 300 $ – Prix kickstarter : 183 $…
Pour voir le projet sur kickstarter : https://www.kickstarter.com/projects/ryangrepper/coolest-cooler-21st-century-cooler-thats-actually

Image à partager librement !

Séïsme dans le landernau des crowdfunders : Les révolutionnaires lunettes virtuelles développée par la jeune startup Oculus viennent d’être rachetées par Facebook… Le produit avait eu le pied à l’étrier lors de la campagne la plus lucrative de l’histoire de Kickstarter. Sur le plan tactique, les motivations de Facebook restent floues. On songe bien sûr aux Google glass, qui récemment viennent de franchir un cap supplémentaire en s’alliant ouvertement avec la mythique marque Ray-Ban pour sortir de leur image « accessoire geek » et entrer de plein-pied dans le domaine de la mode grand public, bien que les lunettes en question ne sont pas du tout comparables (rappelons qu’il s’agit d’une sorte de casque partiel avec son et image pour une immersion plus complète dans les jeux vidéos). Toujours est-il que l’annonce, tombée le 25 avril, du rachat pour une somme de 2 milliards de dollars, à fait l’effet d’une bombe parmi les très nombreux contributeurs associés au projet depuis 2012.

Il y eut 9522 contributeurs (« backers ») en 2012, pour plus de 2 500 000 dollars (dix fois mieux que prévu) qui ne prennent pas de parts dans l’entreprise mais s’assurent en échange d’acquérir à terme les lunettes en question, ou d’autres contreparties virtuelles (et les ont obtenues vu que le projet a pu aller à son terme rapidement). La campagne étant terminée et le projet volant de ses propres ailes, les fondateurs ont sans doute trouvé l’offre faite par le géant Californien irrésistible, avec sans doute la promesse de conserver l’équipe et une certaine autonomie.

Pourtant c’est vécu comme une trahison pour beaucoup s’il on se réfère aux commentaires peu amènes sur la page de l’application sur kickstarter. Beaucoup regrettent leur décision de backing. Est-ce l’image un peu « big brother » de facebook qu’on ne voyait pas dans d’autres secteurs que les application mobiles ? Il est certain que beaucoup auraient imaginé la firme conserver son indépendance et continuer son développement incrémental en comptant sur un communauté active de développeurs avec des contenus en open source pour dynamiser et entretenir son expansion. Quelles seront les intentions de Facebook à ce sujet, seul l’avenir nous le dira…

Quand au crowdfunding, il en restera à jamais marqué pour les futurs backers, qui y regarderont désormais à deux fois avant d’investir, et voir « leur » projet valorisé être revendu à l’un des géants de l’internet ou du CAC40 pour une somme colossale et… aucune contrepartie, car c’est la loi du jeu. Espérons toutefois que le principe restera d’actualité et n’en souffrira pas trop, car c’est bien souvent la seule solution pour de nombreux projets qui ne trouvent aucun investisseur -tout particulièrement en France, ou entre conjoncture très tendue et frilosité traditionnelle, manque de structure et de réseaux de financement participatifs, de business angels ou même de culture du business-risque- les futures startups hexagonales auront au moins une alternative à sortir les fonds uniquement de leur poche…

Voir aussi : #oculusVR #Kickstater Backlash

Le réseau FabrikLink (www.fabriclink.com) récompensait en janvier 2014 les innovations remarquables du secteur pour l’année 2013, basée sur les innovations produits et technologiques, les améliorations significatives dans la conception, la construction ou la performance des produits existants.

Corkshell, développé par Schoeller Textil AG, présente une nouvelle technologie qui combine les caractéristiques naturelles exceptionnelles de liège avec les caractéristiques fonctionnelles de tissus de haute performance. Il est composé d’un granulat de liège certifié FSC qui est un sous-produit de la fabrication des bouchons pour le vin. Ce granulat naturel est pulvérisé et fermement ancré comme un revêtement par un procédé spécial breveté par Schoeller.

Deux options sont disponibles :

  • Deux couches de tissu avec un revêtement en liège à l’intérieur.
  • Construction à trois couches de tissu avec la couche de liège en sandwich au milieu.

Les tissus ainsi générés sont hydrophobes et coupe-vents mais aussi très respirant et disponibles en 2-way et 4-way stretch.

Corkshell offre une isolation thermique significativement plus élevée que les produits comparables à structure souple classiques et en fonction de la structure du tissu, peut fournir jusqu’à 50% de l’isolation thermique du produit final. Corkshell offre un bon niveau d’isolation thermique mais aussi un haut niveau de respirabilité. En outre le procédé est certifié bluesign®, conforme à la norme la plus stricte au monde pour les textiles.


Emana
est un nouveau polyamide 6.6 fait de fil intelligents par Rhodia. Ce polyamide incorpore un additif breveté offrant des propriétés de thermorégulation et améliore la micro circulation sanguine capillaire pendant plus de six heures. Des études scientifiques menées par un laboratoire indépendant brésilien montrent qu’au cours d’exercices sportifs les tissus fabriqués avec Emana améliorent la thermo-régulation corporelle par rapport à d’autres tissus et réduit l’accumulation d’acide lactique qui entraîne la fatigue musculaire.

Les études indiquent également un confort accru et une réduction de la cellulite, en raison d’une augmentation de l’élasticité de la peau. Les propriétés intelligentes de ce fil ne se détériorent pas après les lavages répétés. Bénéficiant des caractéristiques clés des polyamides, tels que le toucher doux, la facilité d’entretien, la résistance et l’élasticité accrue, Emana® est proposé aux clients de Rhodia sur les marchés du sportswear, de la lingerie et des sous-vêtements pour son extraordinaire souplesse en termes de couleur et de design. Emana® a été certifié classe I en vertu de la norme Oeko-Tex 100 (aucune substances nocives).

Fire Stomp est une nouvelle gamme innovante de produits de tricots, développée et mise en place par Texollini, société basée à Long Beach en Californie, qui développe depuis des années des machines à tricoter circulaires et des tissus innovants. Dans la collection Fire Stomp™, il existe une variété de mélanges de fibres tricotées en exclusivité avec Superfino® pour la première couche. La ligne de tissus FR utilisent Viscont® FR fait de filaments rayonnants de Glanzstoff. Les nouveaux tissus Fire Stomp™ présentent un mélange de filaments rayonnants FR/Lycra en deux constructions de jersey. La collection comprend également un « mélange Quad » fait d’un autre développement propriétaire de FR modacrylique/laine/nylon de couleurs vives pour équiper les personnes travaillant sur les ponts d’envol ou le personnel de sécurité par exemple. Il y a d’autres développements avec le lainage Triblend de Texollini – ceratins avec du Lycra.  Tous les produits sont conformes pour les applications FR commerciales, militaires et industrielles.

GlenGuard Hi-Vis Anti-Stat est un nouveau tissu introduit dans la ligne des Glen Raven Technical Fabrics. Développé conjointement avec les textiles de performance de William Barnet & Son LLC, GlenGuard Hi-Vis Anti -Stat est un produit de grande visibilité, fireproof, conformes aux normes ANSI 107, ASTM 1506 et NFPA 70. Il protège de l’électricité statique pour éviter une inflammation à partir des émanations qui peuvent être présentes sur les lieux de travail. Ce tissu empêche l’accumulation d’électricité statique grâce à l’utilisation d’une fibre de carbone développée par Barnet pour les salles blanches, les hôpitaux et toutes les vêtements de travail. Le cœur de la fibre de carbone est enveloppé dans une gaine de polyester qui protège la fibre de carbone contre l’abrasion et les dommages pendant le lavage sans diminuer les propriétés de dissipation statiques de la fibre de carbone. Le tissu est disponible dans les constructions tissés et maillés.

Merino State Bi-Component Fabrics (fabriquées par l’Australien Charles Parsons & Co) sont des lainages mérinos tricotées avec les fibres innovantes «Merino Plus» et d’autres fibres de type coton biologique, Biophyl, Tencel, Modal et filaments de polyester haut de gamme. La société utilise d’intéressantes constructions de tissu tricoté pour fournir une gamme de produits polyvalents, multi-fonctionnels pour une variété d’applications outdoor de type vélo, athlétisme et chasse. Les produits bi-composants pourrait aussi se retrouver dans les sports plus traditionnels comme le golf et le tennis. Un ajout intéressant serait l’intégration de modèles de camouflage sous licence. Merino Sate travaille d’ailleurs actuellement en étroite collaboration avec Realtree et Mossy Oak pour développer des textiles spécialisés pour le marché de la chasse.

Polymer Cross Linked Aerogels. Les aérogels polymériques réticulés développés par le Centre de recherche Glenn de la NASA sont légers, mésoporeux, robustes et mécaniquement 100 fois plus résistants que les aérogels naturels à seulement le double de la densité. Ils sont obtenus par dépôt de polymères sur une structure d’aérogel. Les aérogels sont des matériaux à faible densité avec d’excellentes propriétés thermiques et acoustiques compte tenu de leur porosité élevée et du faible diamètre des pores. Cela les rend particulièrement intéressant pour de nombreuses applications aérospatiales et industrielles, de l’isolation des réservoirs cryogéniques, aux appareils de grande consommation en passant par la construction. Cependant, l’inconvénient principal de ces matériaux est leur fragilité. Sur le plan nanométrique, les aérogels sont constitués d’un réseau en collier – comme des perles de nanoparticules, dont les points faibles restent les liaisons interparticulaires. Renforcer ce réseau de nanoparticules augmenterait donc la résistance de la structure avec seulement une petite perte de poids et une légère diminution de la mésoporosité de la structure.

Le Glenn Research Center de la NASA a utilisé la fonction ‘hydroxyle à la surface des nanoparticules de silice pour greffer un oligomère di-isocyanate. Les aérogels ont ainsi vu leur densité n’augmenter que d’un facteur de 2,5, alors que leur résistance mécanique a été multipliée par 100. En utilisant les silanols présents en surface des nanoparticules, les réactions de réticulation sont limitées aux isocyanates. L’équipe de Glenn a permis d’améliorer cela en utilisant un co-réactif afin de modifier la surface des nanoparticules, ce qui a permis la formation de divers groupes fonctionnels sur lesquels peuvent être greffer de nombreux types de polymère (époxy, polyimides, isocyanates, acrylates, styrène …), élargissant ainsi le domaine d’applications au-delà de la plage de fonctionnement limitée de la chimie des isocyanates.

SafeTcrete, développé par EY Technologies, est composé d’une fibre longue, plate, découpée et réorganisée dans une matrice de béton pour créer une dispersion hautement isolante. Les fibres utilisées pour réaliser SafeTcrete sont rigidifiées grâce à un enrobage par un polymère à base d’ester ou d’acrylate. La rigidité obtenue facilite la dispersion des fibres dans le béton et empêche les fibres de s’agglomérer en boules dans la suspension. L’ enrobage permet aussi à ces fibres de résister à l’absorption d’eau en agissant comme une barrière hydrophobe. L’enrobage améliorerait également la liaison entre le ciment et les fibres. En plus de posséder des fibres bien dispersées dans le béton, SafeTcrete renferme des nanoparticules de silice de façon à réduire de manière significative la perméabilité du béton, le rendant plus résistant aux agents corrosifs et protégeant mieux l’armature du béton.


SEFAR PowerMatrix
, développé par Sefar AG, est un tissu hybride léger comprenant de filaments de polyester (PET) et des filaments métalliques en chaîne et en trame. La technologie fusionne les deux mondes de l’électronique et les textiles, combinant leurs avantages respectifs. Les fils métalliques conducteurs d’électricité en chaîne et trame sont isolés par une couche mince de polymère, ce qui permet aux fils métalliques de former une grille sans contact électrique entre eux. Toute la structure de câblage souhaitée peut être établie avec PowerMatrix par l’élimination sélective du vernis et par connexion point par point des fils. Les connexions sont encapsulées avec des résines époxy ou silicium. Les composants électriques peuvent être montés et reliés entre eux en utilisant la même méthode. Grâce à cette technologie, SEFAR offre des LED sur mesure et des panneaux combinés avec un tissu. D’autres applications de PowerMatrix permettent la détection. Par exemple, il est possible de produire les premiers capteurs de température entièrement en tissu dans le monde. Aucun composant supplémentaire n’est nécessaire pour la mesure de la température car le tissu lui-même est le capteur. Le capteur peut mesurer un intervalle de température de -10 à +100 degrés Centigrades avec une précision de plus ou  moins 1,0 degré Centigrade. PowerMatrix peut fournir des éléments de détection à la fois uniques et multiples sur des surfaces plus grandes par le biais d’un réseau de capteurs à l’échelle de la zone. SEFAR PowerMatrix est conçu à des fins de chauffage, de mesure de température, mesure de débit et mesure de l’allongement pour l’automobile, les filtres, l »industrie et la sécurité.

Les pots VELCRO de Peel-Away sont des produits développés par Velcro Industries et disponibles exclusivement chez les fournisseurs spécialisés en jardinage. Ils permet aux jardiniers de réussir leurs transplantations grâce à :

  1. Le VELCRO poreux crée un système racinaire sain tout en évitant l’effet de spirale des semis « rivés au pot »
  2. Les sous-coupes auto-arrosantes, incluses dans le kit Peel Away, maintiennent le sol humide
  3. Les côtés ouvrables des pots minimisent les perturbations racinaires pour une transition en douceur vers un plus grand récipient ou le jardin

Le pot est fabriqué à partir d’un tissu lavable et réutilisable qui favorise la croissance de racines saines. Les tests réalisés avec des semis de tomates ont montré que les plants produisent plus de fruits et que les tiges sont plus épaisses que lorsque des pots traditionnels en plastique sont utilisés.

Disponible en deux tailles et deux couleurs ( rouge et marron ), les pots Velcro de la Marque Peel Away sont vendus en kits avec pots et plateaux d’auto-arrosage, ou en packs de pots seuls. Les pots de 10 cm sont idéaux pour les semis de tomate, poivron et aubergine, tandis que les pots de 5 cm sont adéquats pour démarrer les graines.

Le Viscont FR – Fabriqué par Glanzstoff Industries en Rep. Tchèque, Viscont FR est le seul fil de viscose FR au monde. Viscont FR offre une résistance au feu, et des performances en termes de résistance à la fonte, de confort, de contrôle de l’humidité, de résistance à l’abrasion et de solidité encore jamais atteintes par les fibres en rayonne. Le fil possède des caractéristiques techniques inédites pour les applications militaires et industrielles, les vêtements de sécurité, les bandes textiles et le textile pour l’ameublement et la décoration. La taille des fils va de 110 à  2440 dtex. Un nouveau brevet a été déposé en novembre 2012 pour un fil hybride 100% HT FR. Viscont FR est conforme à la norme Berry et est distribué exclusivement en Amérique du Nord par ICF Mercantile LLC.

Glanzstoff Industries avec ses trois sites de production en République tchèque, Italie et Luxembourg, et son réseau de distribution dans le monde entier, est un leader dans la production et la transformation de fils de viscose haute résistance pour les applications textiles techniques. Outre la viscose, des fibres synthétiques comme le polyester, le nylon ou l »aramide sont convertis au moyen d’ une technologie de pointe. Glanzstoff Industries fournit également des services dans l’intégration verticale pour une variété de produits de fils/textiles et des possibilités de finition.

Un article adapté de l’anglais de rsstextile

Airwriting, ou le poids des mots en l’air

17 Mar 2014, Posté par D. Bocquelet dans Regard sur l'actualité

On pourra multiplier à loisir les calembours sur les mots vides ou creux, les mots en l’air, brasser de l’air… Il n’empêche que la dernière révolution de l’écriture numérique est de se passer de tout support ou stylo !

En effet vous aviez jusqu’ici l’habitude de taper vos mots avec des touches, puis avec les écrans tactiles, et avec l’application idoine, dessiner des lettres ou écrire à la main avec un stylet, le logiciel faisant la reconnaissance des signes tracés les convertissant en un alphabet. Cela permettait de passer de la prise de note rapide d’un texte manuscrit -à priori isolé sur son support- vers son passage en numérique polyvalent (mails, stockage, retouche, etc). Et c’était déjà bien. Mais on vient de franchir un cap supplémentaire avec le lancement de la nouvelle appli Airwriting.

Créé dans le pays de Goethe, au sein de l’institut de technologie de Karlsrhue, cette petite appli est en train de faire parler d’elle.  Cette dernière permet de dessiner des mots littéralement « en l’air », et les applications standards de reconnaissance de caractères prennent le relai. Bien sûr cela passe par une connection bluetooth sur un iphone, et l’utilisation d’un emetteur au poignet ou sur la main (un « gant » pour le prototype). La marge d’erreur actuelle se tient autour de 11%, mais l’équipe derrière le projet s’attend à descendre sous la barre des 3%. La base consiste en une bibliothèque de 8000 mots parmi les plus courants en Anglais. Google s’y intéresse déjà, ayant primé récemment l’application; Peut-être pensent t’ils à une extension de leurs google glass.

Ce n’est pas la première tentative de dématérialiser l’écriture. Depuis près de 10 ans au MIT, l’équipe chargée de développer la réalité augmenté avait déjà exploré cette voie par le truchement d’une caméra et dans un contexte bien spécifique. On pouvait taper des lettres sur sa main par exemple, sur un mur, u n’importe quel support. La caméra enregistrait simplement la location de la main et la position des doigts à la bonne distance. Tout était très calibré cependant et ne fonctionnait que dans des limites très strictes.

D’autres applications de l’airwriting existent en dehors de la réalité augmentée : Notamment comme moyen de communiquer pour les muets, en alternative au language des signes qui n’est connu que des muets et de leur entourage immédiat.

Un article technologies de Viedoc.


L’ industrie de la restauration est plus compétitive que jamais.
Dans une tentative de gagner plus de clients exigeants et à court d’argent, les chaînes de restaurants rapide US ont fais les frais de quelques innovations en 2013.

Des idées de ce qui se prépare à débarquer plus tard en Europe ?

1- Un McDonald à mi-chemin entre le petit déjeuner et les hamburgers :

Cette année, le géant de la restauration rapide a commencé à tester le « McDonald After Midnight ». Le menu comporte un petit déjeuner avec des McMuffins, oeufs, jus d’orange et pommes de terre rissolées – à côté des hamburgers et des frites. Le PDG Don Thompson a déclaré la marque aimerait servir éventuellement ce petit déjeuner tous les jours. C’est une étape importante dans la bonne direction.

2 – Applebee a tué l’un des aspect les plus ennuyeux de sa chaîne.

La chaîne de restaurant à l’esprit décontracté installe des tablettes pour payer directement dans ses magasins, laissant les clients payer sur ​​place et en éliminant la nécessité de produire un chèque.

3 – Burger King a créé une version améliorée du McRib:

Le « BBQ Rib sandwich » a d’abord été vu comme un rip-off du classique de McDonald. Mais la version de Burger King coûte seulement 1 $, comparé aux 3 dollars d’un McDonald.
Avec des clients comptant chaque centime, ce prix abordable est important.

4 – Taco Bell s’élargit petit à petit à l’échelle nationale.

Maintenant, tout le monde sera en mesure d’obtenir des articles Mex Californiens comme le Breakfast Crunchwrap et la gaufre Taco.

5 – Starbucks à mis à jour sa sélection de pâtisseries.

Starbucks a déployé la gamme Boulangerie – pâtisseries « La Boulange », qui est une grande amélioration sur les offres précédentes.
On peut voir ce mouvement aussi comme une étape pour offrir une gamme encore plus large, comprenant aussi le petit-déjeuner.

6 – KFC met le poulet en gobelet.

Le « Go Cup » permet aux clients de manger leur KFC en voyageant, y compris le poulet et les frites, dans un porte-gobelet.
Le concept est simple, mais aussi créatif. KFC affirme que 42 % des Américains seraient plus susceptibles de manger dans leur voiture si le récipient alimentaire s’adaptait au porte-gobelet.

7 . « La Meilleure chaîne de pizza » .

Une flopée de nouvelles chaînes visent à faire de la pizza ce que Chipotle a fait pour le mexicain. Ils offrent des produits frais et des pizzas faites devant le client, le tout en moins de cinq minutes. Besoin d’ une preuve de plus que c’est la prochaine grande innovation du secteur ? Nous avons récemment appris que Chipotle vient d’ouvrir une chaîne de pizza à Denver.

8 . Le nouveau menu « super-cheap » de Taco Bell.

Taco Bell vient de sortir un menu extra-économique comportant un plusieurs produits pour seulement 1 $ : Les menus taco Beefy, Cheesy, Spicy et Crunchy. À une époque où McDonald et Wendy mettent en vedette leurs menus les plus chers, cette accessibilité supplémentaire aidera Taco Bell se démarquer.

9 – Beignet sans gluten chez Dunkin’Donuts.

Le gluten est un complexe de protéine présente dans la farine de blé. Un nombre croissant de personnes sont allergiques à la protéine, et le menu « sans gluten » est devenu un régime à la mode aux USA. Le beignet devrait donner à Dunkin’ un avantage sur ses concurrents comme McDonald et Starbucks…

Un article traduit de l’anglais de rssagro – Source : Ashley Lutz – businessinsider.com, 23 décembre 2013.

A Paris depuis l’année dernière, le tissu entrepreneurial le plus dynamique provient principalement des startups évoluant au sein des nouveaux pôle constitués à Paris et Lyon, et se voit confirmé par des succès récents (introduction de Criteo en bourse), chiffres records pour Vente-privee.com, succès des objets connectés Français au au CES de Las Vegas en décembre dernier… Encore récemment Wired faisait la part belle aux récents succès de la sphère entrepreneuriale Francophone, Leetchi (plate-forme de paiement collectifs), Blablacar (plate-forme de co-voiturage), Melty (E-TV pour ados), AppsFire (Recommandations pour des développeurs), et d’autres plus anciennes comme Viadeo, Withings ou Deezer (qu’on ne présente plus)…

Pourtant l’attention des médias internationaux pour la « hottest startup capital » n’est pas dans l’hexagone, mais plus au sud, dans la bouillante Barcelone.

En effet, toutes les attentions se portent actuellement sur Barcelona.IO, le hub 2.0 d’où part les plus talentueuses des startups espagnoles, et ce malgré un climat économique toujours peu favorable,  et un manque de business angels. Le réseau de financement reste classiques : L’état Catalan, les Banques, les corporations et quelques sociétés d’investissements, toutes encore trop frileuses. Cependant Barcelone a des atouts. Un dynamisme et des idées avec de bonnes écoles, un niveau de vie moins onéreux qu’à Paris, une taxation plus légère et des règles d’embauche plus souples. Plus encore, l’espagnol est parlé dans la plus grande partie de l’Amérique du sud, et les Catalans sont aussi naturellement bilingues, et ont moins de mal a passer le cap de l’internationalisation d’emblée. Enfin et surtout, « Barcelone reste la ville la plus riche et la plus dynamique de l’Espagne, avec une vie culturelle vibrante et un climat plus avenant » (selon Christopher Pommerening d’Active Venture Partners).  Voici 10 exemples de ces startups (selon Wired.uk) qui ont eu le plus de succès :

– Social Point : Andrés Bou and Horacio Martos ont lancé un free-to-play sur facebook à grand succès en 2011, Dragon City (second meilleur jeu facebook en 2012), suivi par Social Empire et Pool masters. Ils ont fédéré autour d’eux un véritable écosystème de développeurs tournés vers les jeux sociaux. La première’application a été téléchargée deux millions de fois . Ces jeux totalisent 42 millions d’utilisateurs par mois. En moins d’un an, le trafic quotidien est passé de un million à 6,5 millions. Avec le modèle freemium, où les utilisateurs peuvent faire des achats sur les jeux, les revenus générés en 2012 ont été de 20 M $ (12 M £).

– Restalo :
Fondée en 2009, Restalo est le premier fournisseur en temps réel de réservations de restaurant en ligne en Espagne et en Italie. Fondateur CEO, Juan Otero a vu une occasion de remplacer la paperasse par un service en cloud:  « Avec l’augmentation dans les mobiles, les médias sociaux et les méthodes de micro-paiement, la technologie s’invite dans les restaurants et l’industrie alimentaire comme jamais auparavant ». Restalo génère des revenus mensuels de 2,2 M € pour ses restaurants. Les partenariats avec Google, TripAdvisor et Yell ont encore augmenté ce nombre.

– Kantox :
Fondée en Juin 2011 par Philippe Gélis et Antonio Rami, Kantox est un marché parallèle pour achats/vente des devises, avec des frais réduits. « C’est le contraire du marché des changes », pour Gélis. Kantox a échangé plus de 50 millions (£ 30.000.000) de dollars depuis Novembre 2011.

A surveiller :
1-Whisbi
Whisbi aide les marques de vente en ligne étroitement associées avec un service permettant aux équipes commerciales de parler aux clients via un téléphone à deux voies ou une conversation vidéo bidirectionnelle sans que le client ait besoin d’un logiciel. Les frais sont assurés par une taxe pour chaque entrée nouvelle dans leur système, ou par l’utilisation de leur propre agents vidéos.
2-yuilop
Yuilop est une application mobile offrant la possibilité de passer des appels gratuits et textos à d’autres mobiles – sans que l’autre utilisateur ait besoin de l’application. Les utilisateurs ne paient pas pour ces appels ou textos, mais génèrent une monnaie virtuelle, « énergie », en recevant des appels et envoyant des alertes. Le PDG et fondateur Jochen Doppelhammer espère élargir son appli à cinq millions d’utilisateurs, avec en prime un ticket d’entrée aux États-Unis en 2014.
3-Knok
Knok a jeté son dévolu sur les nouvelles modes dans de l’industrie du tourisme et des vacances. L’échange de maisons permet aux membres de rester gratuitement dans les maisons des autres. Les frais d’adhésions annuels de 95 Euros comprennent un nombre illimité d’échanges et couvrent tous les frais d’assurance. 20000 utilisateurs sont enregistrés avec un choix de 159 pays à visiter. Knok a soulevé 500 000€ lors d’un tour de financement privé en Mars 2013.
4-ChangeyourFlight
ChangeYourFlight permet aux passagers d’ annuler les billets d’avion non remboursables. La plate-forme regroupe les demandes des voyageurs pour des remboursements partiels sur des vols gratuits. Lorsqu’une demande est acceptée, l’utilisateur reçoit un remboursement et un bon pour un autre vol, tandis que la compagnie aérienne peut revendre la place disponible, aidant les deux parties.
5-Passnfly
Lancé en Février, Passnfly offre une solution numérique pour la vérification en vol. Il vérifie automatiquement l’affectation des passagers sur leur siège choisi et envoie la carte d’embarquement sur ​​leur téléphone mobile. Passnfly est en partenariat avec 200 compagnies aériennes, en expansion: Le fournisseur de services de voyage Amadeus estime 15% de tous les check-ins seront traitées automatiquement en 2015.
6-CloudWork
Lancé en Octobre 2012, CloudWork est un service basé sur le service Web Nubera, par les créateurs du marché indépendant de l’application getapp. Il permet aux petites et moyennes entreprises d’accroître leur productivité en connectant leurs applications d’entreprise, la mise en commun des données et des processus à partir de sources précédemment isolées telles que Dropbox et Twitter.
7-Akamon
Akamon est un acteur du social gaming à forte connotation locale:  Chaque fois qu’il s’ouvre à un nouveau marché en Amérique latine ou en Europe du sud, il développe de trois à cinq jeux à thème sur place, et correspondant à la culture locale. La société a été élu meilleur jeu de démarrage à GamesBeat 2012. Le groupe à produit un chiffre d’affaires de 8,5 millions de dollars (5 millions de £) en 2012.

Un article tech de rssintelligence.

Source originale : http://www.wired.co.uk/magazine/archive/2013/11/european-startups/barcelona

Daymon Worldwide -marque de détail et d’approvisionnement géante aux USA- a publié début janvier 2014 les résultats de ses études « hommes en mission », révélant six types de profils marketing axés sur une « mission » d’achat et définit des archétypes de consommateurs inédites révélant l’évolution des rôles de genre et des comportements d’achat…

Selon l’étude, 52% des acheteurs de sexe masculin aux États-Unis sont personnellement responsables d’environ 78% cent de tous les produits non-alimentaires achetés pour leur ménage dans le dernier mois, de sorte qu’ils représentent une énorme opportunité financière pour les détaillants prêts à répondre avec des produits et des services personnalisés.

« Alors que les femmes et les mères ont longtemps été la cible traditionnelle pour les détaillants d’épicerie, les hommes et les pères représentent maintenant une occasion d’affaires importante… » déclare la directrice de Daymon Worldwide, Carla Cooper. «Nous avons vu quelques unes des dernières études de consommation «en instantané» des acheteurs de sexe masculin qui ont quantifié ce segment démographique, mais nous étions convaincus que nous devions fournir à l’industrie une analyse plus complète de qui exactement ces derniers sont, ce qu’ils pensent d’eux-mêmes et comment ils diffèrent les uns des autres. Ce sont des blocs de construction qui peuvent permettre aux détaillants et fabricants de jouer sur la bonne combinaison de produits et de services afin d’optimiser les achats et d’augmenter la fidélité ».

Pour donner un aperçu plus détaillé sur le comportement d’achat des hommes, Galileo Global Group, de Branding Daymon a dépêché une étude nationale représentative grâce à un questionnaire en ligne rempli par 1000 américains de 18 ans et plus qui satisfont à certaines exigences :

  1. Être personnellement responsables d’au moins la moitié des achats de nourriture et boisson pour le ménage,
  2. Achètent au moins l’un des 10 aliments et boissons pour la maison
  3. Ont acheté au moins un aliment et boisson la semaine avant la participation au sondage.

Selon le le chef de projet Marketing Andres Siefken de Daymon Worldwide, les résultats sont très singuliers: « Près de 50 pour cent de tous les hommes américains font des achats basés sur la « mission » d’emmagasiner un article ou un groupe d’éléments, y compris des denrées spécifiques pour le ménage», explique Siefken.  » En outre, 60 pour cent des acheteurs de sexe masculin sont personnellement responsables de tout ou presque en matière d’épicerie pour leur foyer. « Les hommes ne sont pas égaux – les attitudes changent selon une segmentation bien spécifique ».

Selon l’étude, les clients masculins peuvent être segmentés en six archétypes en fonction de leurs attitudes et leurs sentiments sur les rôles de genre, la cuisine et les achats pour leur ménage. Tous ces archétypes effectuent des achats axés sur une « mission » mais chacun avec une perspective légèrement différente. Ceux-ci comprennent:

• Les traditionnalistes 15%) – Un groupe d’hommes qui sont plus ancrés dans leurs habitudes et voudraient revenir en arrière vers des rôles plus traditionnels entre les sexes. Ce sont de grands fans de la cuisine maison, mais faite par leur compagne.

• Les modernes (12%) – Ce sont les acheteurs masculins les plus avant-gardistes, ceux qui croient en l’égalité, profitent de leur participation active dans le partage des tâches ménagères et à la cuisine. Ils apprécient également de repas cuisinés au foyer, mais pourraient préférer être chef la plupart du temps.

• Les mâles Primaux (14%) – Ce groupe a tendance à être plus âgé et croient souvent qu’ils sont le sexe dominant et peuvent mieux gérer les rôles pour la cuisine et les courses par rapport à leurs homologues féminins.

• Les hommes Confus (19%) – Ce groupe de jeunes hommes a tendance à être dans un état de confusion quand il s’agit de rôles de genre. Peut-être inconsciemment, ils pensent que les femmes doivent faire la cuisine et le ménage, mais en partie ne veulent pas offenser les femmes, et se tournent vers le moyen de les apaiser. Ils ont également souvent confrontés à un problème d’identité et hésitent à montrer leur côté féminin.

• Les Hommes dicernants (20%) – Ces hommes très instruits commandent habituellement un revenu plus élevé et partagent de nombreuses caractéristiques similaires à l’archétype moderne.  Comme ils croient aussi en l’égalité, en soutenant leur conjoint de toute façon nécessaire, et effectuent un grand nombre de tâches ménagères. Ils sont plus impliqués dans les achats de nourriture, et se dirigent vers de la plus haute qualité. Ils sont également un peu plus susceptibles de puiser dans leur côté féminin.

• Les Homme « chahutés » (20%) – Quoique assez semblables au groupe des confus, ces derniers font de leur mieux pour éviter les conflits et se plieront à la volonté des femmes dans leur vie. Ils croient fermement en l’égalité, le partage des tâches ménagères et n’ont pas peur de montrer leur côté féminin. Mais ils ne veulent pas remettre en question les femmes dans leur vie et peuvent même se sont sentis « battus » dans leurs relations passées.

« Tous ces acheteurs masculins abordent la tâche des achats d’épicerie très différemment de celle des femmes… » dit Siefken . «Ils sont beaucoup moins susceptibles de faire des listes, découper des coupons de réduction ou regarder les inscriptions en magasins, mais vont passer plus de temps à faire des courses réelle. Ils sont aussi plus susceptibles de les faire seuls – Un luxe que de nombreuses femmes avec enfants n’ont pas – et préfèrent l’après-midi, et en cours de semaine – hors mercredi. Tous ces comportements offrent des perspectives inestimables pour les détaillants intéressés à personnaliser leurs offres pour attirer et retenir ces clients de sexe masculin.  »

Une segmentation des besoins :
Chacun des six archétypes disent effectuer régulièrement six types de déplacement d’achats « axés sur une mission » précise, et certains d’entre eux plus régulièrement que d’autres. Ces missions peuvent être décrites comme suit :

• Le Nerd-shopper (13%) – Cet acheteur cherche à se procurer des articles qui montrent qu’il se soucie de leur bonne gestion des courses pour le foyer, profitant d’occasions spéciales qui lui permettront d’impressionner leurs familles et amis tout en appréciant le processus d’achat. L’acheteur de type « Homme confus » tombe souvent dans ce segment.

• L’homme des cavernes (10%) – Ces acheteurs masculins ont une approche moins sophistiquée, de type « rechercher et récupérer  » et effectuent un shopping habituellement en préparation d’une occasion pour se divertir, ou organiser un rassemblement plus informel par exemple pour des événements sportifs, des soirées de jeux, ou traîner avec des amis. L’archétype d' »Homme Primal »  tombe souvent dans ce segment.

• A la demande (23%) – Ce sont les acheteurs-consommateur  recherchant quelque chose de simple et rapide, à but précis et immédiat. Ceux qui vont sur ces types de « missions » cherchent à acheter quelque chose de rapide pour le dîner, soit en épicerie ou à emporter dans un restaurant. L’archétype du « Classique » tombe souvent dans ce segment.

• Le sportif (13%) – Faire les courses est une occasion de profiter d’un mode de vie sain. Ces acheteurs sont prêts à prendre leur temps pour explorer le magasin et pour trouver leurs offres de produits sains préférés, ou même essayer quelque chose de nouveau. Le « discernant » et le « chahuté » tombent souvent dans ce segment.

• La Gestion de foule (26%) – Cette mission appelle à de plus solides occasions d’achat visant à trouver quelque chose pour tout le monde à la table. Ces derniers sont généralement effectués tôt dans la journée, et impliquent une planification et une navigation avec la recherche d’options d’achats. Le « Moderne » tombe souvent dans ce segment.

• Souvent homme varie (15%) – Les occasions d’achats sont  aussi celles d’essayer quelque chose de différent. C’est une composante de l’acte de faire les courses d’être à la recherche de quelque chose hors de l’ordinaire. L' »Homme confus » tombe souvent dans ce segment.

Bien que la plupart de ces acheteurs arrivent à l’épicerie, 20 pour cent vont également en supermarchés, 12 pour cent passent par la vente à emporter en restaurants 16 pour cent dans d’autres types de débits.
« Armé d’ informations précises et détaillées sur la population des consommateurs, les détaillants et les fournisseurs américains peuvent fournir des produits et des services qui les inciteront à revenir pour plus personnalisation », pour Siefken. « Afin de puiser dans chacun des archétypes et leur mission correspondante, il y a des implications spécifiques pour chaque détaillant unique en fonction de son marché et de sa stratégie.  »

Un sujet basé sur alerte web rssagro.com, basé sur une étude de www.daymon.com, traduit et adapté de l’anglais.

Les fonds affluent dans l’Internet des objets, construits autour de capteurs intelligents connectés à Internet. Mais le sens le plus riche de tous, la vision, est resté en grande partie ignoré, et utilisé dans l’industrie seulement pour une petite fraction de son potentiel. La vision est resté isolée dans un recoin technologique du développement des machines intelligentes, tandis que les autres sens avançaient rapidement.

Jusqu’à récemment, la vision par ordinateur – la plus largement utilisée dans la fabrication – et les technologies de l’informatique grand public ont existé dans des mondes parallèles. Avec d’autres technologies productives, la vision par ordinateur a tendance a être calibré spécifiquement pour la machine, au matériel piloté, et fait peu de cas de l’usage de l’Internet. Beaucoup de progrès que nous tenons pour acquis dans l’informatique moderne grand public – connectivité omniprésente, stockage illimité en cloud, aperçus tirés de masses de données non structurées – doivent encore être appliquées au monde l’usine en général et à la vision par ordinateur en particulier.

Il n’est pas surprenant quand on sait que jusqu’à récemment, la plupart des logiciels de vision numériques ont été créés par des fabricants de matériel de vision par ordinateur, construits sur des systèmes embarqués sans API ouvertes. Ce qui vient à l’esprit quand vous pensez au logiciel qui a été fourni avec votre scanner, votre routeur Wi-Fi, et le système de navigation de votre voiture ? Volumineux, peu flexible et peu intuitif. Le logiciel n’est rien de plus que d’un utilitaire nécessaire au fonctionnement du matériel .

Mais ce monde fermé est en train de céder face à une convergence de technologies émergentes :

  1. La prolifération de capteurs à bas prix et de senseurs caméra pixel haute densité
  2. Les implémentations ouvertes des algorithmes de vision, l’apprentissage de la machine et des outils statistiques
  3. Une puissance de calcul croissante peu onéreuse, devenant pratiquement illimitées dans un cloud

Ces technologies offrent toutes les matières premières nécessaires à un un changement massif dans la manière dont la vision par ordinateur est opérée. Ce changement concerne le passage d’une concentration sur la matière première des données visuelles – les pixels et les bitmaps générés par des caméras spécifiques – à l’extraction de données à partir d’images et l’utilisation de techniques statistiques et scientifiques des données à tirer de ces enseignements.

Cette nouvelle approche de la vision par ordinateur trouve un puissant potentiel au sein de la renaissance de l’industrie manufacturière américaine, mettant l’accent sur des cycles de production rapides et une personnalisation de masse. Considérant que l’ usine américaine typique a été construit autour fonction reproductibles, systématique, la fabrication moderne est axée sur ??la flexibilité, l’adaptabilité et une plus grande efficacité. Nous sommes passés d’Henry Ford déclarant « de n’importe quelle couleur qu’ils veulent tant qu’elles sont noires » à Moto X (Le téléphone de Google) fabriqué aux États-Unis et livré dans les quatre jours configuré sur le client.

Des exigences de qualité implacable :

Ce besoin de flexibilité sur la ligne de fabrication est cependant en tension avec les exigences de qualité auxquelles les fabricants font face de manière implacable entre le haut de l’industrie et le bas des chaînes d’approvisionnement. Malgré des investissements considérables dans le contrôle qualité, les constructeurs automobiles ont rappelé presque autant de voitures que de voitures vendues aux États-Unis en 2012. Ford et General Motors ont effectué des opérations de garantie de quelques 5,7 milliards de dollars en 2012, plus de la moitié des 10,5 milliards comptabilisés en résultat net… Les constructeurs automobiles sont en train de payer les fournisseurs en fonction de Benchmarks de défauts par millions, éliminant ceux qui tombent en dessous des seuils, et en repoussant leur responsabilité afin d’effectuer des réclamations jusqu’à leurs fournisseurs.

Alors que l’automatisation a transformé une grande partie de la fabrication manufacturière, une part encore surprenante du contrôle qualité se fait toujours manuellement ou s’appuie sur le jugement humain. De nombreux types de contrôle exigent une évaluation visuelle, mais l’expérience de la vision par ordinateur dans le contrôle qualité a jusqu’ici été une source de frustrations. Les machines en usage utilisent une architecture vieille de 30 ans à forte intensité capitalistique et fortement limitée dans ses capacités. Les systèmes de vision par ordinateur contemporains fonctionnent comme des îles autonomes, rarement connectés à Internet. Chaque fois que les besoins changent, chaque installation doit être reprogrammé manuellement, unité par unité, ce quui ajoute une charge financière et des délais de production parfois intolérables en flux tendus.

Pire encore, peu de données sont conservées, ce qui rend difficile un repérage des tendances ou de corrélations entre plusieurs variables. La plupart des inspections de qualité de fabrication par la vision numérique est aujourd’hui en partie un échec. Si les inspections initiales d’un cycle de production passent l’inspection de la qualité, les machines sont allumés et les données d’essais écrasées.

Le nouvelle vision par ordinateur

Libéré de ses entraves matérielles et étendue par la connectivité, le stockage de données illimitées et l’analyse statistique de données de Big-data sont en train de changer le rôle de la vision dans le secteur manufacturier. Au lieu d’être un outil réactif pour détecter les défauts, la vision par ordinateur est devenu un outil de collecte de données à l’appui des initiatives de prévention des défauts, pour améliorer la compréhension des processus complexes, et permettant une plus grande collaboration entre les chaînes d’ approvisionnement en temps réel.

Avec les services web modernes, une fois les données recueillies, elles sont facilement regroupées dans des tableaux de bord accessibles aux chargés de la production, ingénieurs qualité, et les services de gestion, locale ou mondiale. Les fabricants peuvent également partager des données avec les partenaires de la chaîne d’approvisionnement, ce qui rend plus facile le contrôle des fournisseurs ou de satisfaire aux exigences d’établissement de rapports pour les clients.

Un grand fabricant de boulons de haute qualité et d’autres fixations automobiles, a parfaitement intégré ces nouveautés dans leur utilisation de la vision numérique. Son système l’utilise pour analyser le grain des boulons. Si le motif est erroné (si les lignes du grain se terminent sur ??une surface portante) la tête du boulon peut se fendre quand un ouvrier d’usine les tord vers le bas, ou pire, quand il tient déjà un bloc moteur en place. Le système capture des images en utilisant un scanner à 100 dollars acheté chez Best Buy. Toute l’intelligence est dans le logiciel, en cours d’exécution à distance sur la plate-forme de cloud computing d’Amazon. Le système compare chaque image à des milliers d’ autres photos de grains métalliques stockés dans le nuage, recherchant des modèles qui sont en corrélation avec l’échec de la pièce.

Le fabricant de vis explore maintenant l’extension de son système de vision par ordinateur à son fournisseur d’acier, ce qui lui permet de saisir des images de grains de métal de chaque lot de tiges d’acier qu’il expédie à l’appareil de fixation. Le fabricant de fixations sera alors en mesure d’analyser des ensembles de données de plus en plus massives de corréler des motifs de grain dans les tiges d’acier avec des mesures de qualité dans les boulons finis.

Au lieu d’examiner un seul poste, de grands ensembles de données permettent aux entreprises de tracer les interactions complexes sur la ligne de production et dans la chaîne d’approvisionnement. Des stations en amont peuvent produire des pièces qui sont techniquement au seuil de la tolérance, mais quand certaines plages de variation acceptables sont combinées, elles peuvent causer néanmoins des défauts en aval après installation.

Pour ce client la matière première (une tige d’acier) et le lot de boulons fabriqués à partir de la tige, peuvent chacun être bien conformes aux spécifications, mais l’analyse de données rétrospectives peuvent montrer que certaines combinaisons de motifs du grain dans les tiges d’acier conduisent à plus les taux de défaillance sur les boulons utilisés pour des applications spécifiques.

Quand les constructeurs automobiles s’adapteront au système, ils monteront en puissance. Si un rapport constate que les boulons fixant le porte-gobelet se brisent et conduisent à des réparations sous garantie, le fournisseur de pièces dispose maintenant d’outils d’analyse pour déterminer la source du problème. Ils peuvent exécuter l’analyse pour déterminer si les boulons qui ont échoué provenaient d’un lot particulier de tiges d’acier, ou ont été faits un jour où leur ligne de production a été ajustée à une tolérance spécifique ou bien encore si le problème n’était pas dans le boulon lui-même, ou avec l’opérateur travaillant sur le côté gauche de la ligne d’assemblage, qui surcouple uniformément les vis du moteur.

Une fois les données capturées dans le cloud, de tels systèmes peuvent stocker une quantité illimitée de données indéfiniment, pour une nouvelle analyse ou recherche précise à tout moment. Ils permettent de déceler des corrélations dans le temps, suivre des tendances par l’analyse statistique et d’identifier des causes profondes, et les problèmes que nouvelles variables posent, revenir en arrière au besoin et analyser des données précédemment acquises dans leurs évaluations. Comme chaque ligne de production devient plus intelligente, l’ensemble du système devient plus intelligent. Comme Google en apprend davantage sur les consommateurs dans leur recherche et à chaque clic, les utilisateurs de ces systèmes sont en mesure de regrouper les apprentissages de problèmes qualité communs dans tous les secteurs.

En fin de compte, la vision peut transformer les défis physiques du monde des problèmes Big Data. Nous savons maintenant comment résoudre ces problèmes Big Data de mieux en mieux chaque jour.

Titre original : Liberating machine vision machines – Janvier 2014. Traduit et adapté de l’anglais. Source : Wired.

Le (véritable) futur du Web

14 Jan 2014, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

Des bases immuables :

Le Web semble rivé sur les mêmes bases depuis la première bulle internet de 1995 à 2000. Outre les modes de présentation (Le flash, l’arrivée des d’un E-marketing sérieux, du contenus trois points, des carousels, puis du jquery), les fondamentaux d’un site internet se sont bien ancrés sur le long terme autour de pages de contenus desservies par un menu principal et des liens secondaires. Derrière cela on recoupe 99,9999% des sites existants. Le SEO (référencement) puis le SMO (référencement sur les réseaux sociaux) ont lissés quelque peu les usages en matière de conception technique, de la même manière que l’ergonomie du web est arrivée a maturité.

Un web lissé et uniformisé :

Un bon exemple de cela est la manière dont les sites E-commerce sont construits, pas seulement parce qu’ils utilisent les mêmes architectures à la base (Prestashop, Magento, Thélia, etc.) mais aussi parce que l’on souhaite de l’efficacité avant tout et que l’on souhaite présenter à un client le moyen de trouver rapidement ce qu’il souhaite (et d’acheter rapidement !). Un internaute qui cherche comment passer commande provoquera des abandons, de même par exemple qu’une originalité dans la présentation qui dérange comme par exemple un choix de police/fonds original mais moins lisible, etc. Des habitudes sont prises en étudiant la concurrence qui aboutissent à des modèles quasi intangibles. Les graphismes changent mais tous les liens d’interaction les plus fonctionnels pour ce type de site seront rigoureusement à leur place. Ce sont donc des impératifs de bon sens marketing qui « lissent » le web.

Une interactivité qui s’épuise :

Certes, la puissance des ordinateurs augmente, les navigateurs se modernisent, mais les médias se sont également multipliés (tablettes, iphones) et ont vite pris de bonnes part du marché. Les gagnants de ce jeu ont établi des bases standardisées dès le départ de manière à incrémenter le plus d’applications possibles, gage de leur polyvalence d’usage et donc d’intérêt durable pour les internautes. Les iphones et tablettes ont su passer de l’étape cruciale de « gadgets technologiques » à un usage quotidien accepté à part entière. Or, les technologies employées sont en nombre restreint, et doivent s’accorder avec celles régissant le monde technique du web « courant ». Après le dégonflement des possibilités du jquery du fait d’une difficile évolution technologie du navigateur encore le plus utilisé, Internet Explorer, les internautes ont tout simplement renoncé à utiliser toutes les possibilités offertes par ces scripts dérivés du javascript pour que leur contenu soit visible du plus grand nombre. (Exemple : Le fait de « glisser-déposer » intuitivement une image dans une application depuis une fenêtre de son PC au lieu de parcourir classiquement son arborescence, ou bien de pouvoir déplacer librement des objets dans l’espace de la page). Le plus grand fautif en la matière étant le lourd, typique réseau d’entreprise, qui migre beaucoup plus difficilement en particulier par temps de crise, et où se trouvent les internautes-prospects les plus intéressants !

Le second frein aux évolutions technologique du web est la complexité des sites récents qui doivent, en plus de gérer une cohorte de navigateurs aux technologies parfois limitées, intégrer un aspect « responsive » dans leur design : A savoir compatibles avec les iphones et tablettes. Enfin le poids de ces contenus purement technique (c’est du code) se fait au détriment de la vitesse d’exécution, synonyme de lenteurs d’affichage, de réponse, et de taux de rebond ou d’abandon des internautes ce qui reste évidemment rédhibitoire dans une approche E-marketing. On a tendance donc à utiliser ces effets avec parcimonie et après les avoir rigoureusement testés.

Enfin, que peut-on inventer de plus à partir d’un écran 2D ? Pas grand chose en fait. On continue à cliquer sur des liens pour accéder à des contenus ou provoquer une réponse du site. Reste que derrière cela les technologies de bases n’ont pas évolué depuis plus de vingt-cinq ans : Ce sont les même protocoles, hérités de l’ère de l’internet filaire téléphonique.

Une révolution se prépare.

Pour préciser ce titre, il ne s’agit pas de « futur » à courte portée (5-6 ans), mais bien d’anticipation à long terme. Il ne s’agit pas d’empiler les nouveautés javascripts pour tenter de rendre les usages de l’internaute encore plus ergonomiques, mais bien d’apporter une vision de l’internet totalement nouvelle. Enfin il ne s’agit pas d’une plus grande « intelligence » du web (le fameux web 3.0 ultra-sémantique) tourné vers le bénéfice des marchands qui pourront cibler leurs prospects avec encore plus de précision, mais bien d’un véritable révolution d’usage et d’apparence : L’irruption d’une vraie 3D avec les moyens de l’exploiter.

Et cette-ci va arriver de deux manières :

– Dans votre vie quotidienne, hors du bureau, sous la forme de la réalité augmentée, avec une série de lunettes (à commencer par les google glass) qui dans leur forme primitive peuvent être assimilées à des gadgets mais entraîneront rapidement une véritable révolution des usages. Il vous sera possible en effet de voir en 2d des informations sur des verres recouvrant tout votre champ de vision. Un effort mental sera nécessaire pour que les yeux assimilent ces deux réalités comme un tout et interagissent avec lui sous une forme qui reste encore à déterminer par les usages. Le feedback permis par la miniaturisation des caméras et projecteurs, le tout connecté a internet en très haut débit et alimenté par un puissant processeur, permet (déjà) de transformer n’importe quelle surface neutre en surface d’action pour y projeter des visuels ou tout éléments d’interaction comme un clavier… On peut donc par exemple composer un numéro de téléphone sur sa main et appeler. Reste à intégrer des capteurs de mouvement pour détecter la danse des mains et des doigts dans l’espace, ce qui existe déjà également à cette paire de lunette pour effectuer des actions virtuelles. Cela est pour l’instant limité à des usages scientifiques de manipulation d’objets 3d.

Le système de manipulation 3d « mains libres » créé par Elon Musk. La création aujourd’hui c’est un mix de gestuelle calibrée sur Leap Motion, casque oculus rift, et impression 3D. Les gains de productivités sont énormes.

Dans votre vie au bureau, par cette fois la substitution de deux réalités. Celle d’une interface en 3D qui devient un nouvel environnement de travail à part entière, une réalité virtuelle « intégrale ». Celle-ci existe dans les faits à titre expérimental depuis des années et se traduit sous la forme d’un casque opaque projetant un environnement visuel et sonore cohérent en temps réel à l’utilisateur. La première application dans ce domaine se trouve dans les jeux vidéos et une société comme Oculus semble sur le point d’inaugurer un standard en la matière pour une future commercialisation massive. Or, si l’on peut modéliser un environnement 3d répliquant un environnement « réel » (ex. montagne) avec difficulté (puissance de calcul limitée) on peut à priori plus facilement répliquer une environnement de travail fonctionnel et artificiel.

L’avantage d’un tel environnement ? On utilise ses mains en entier ou partie et ses doigts (voir plus haut) pour déplacer des éléments, pointer dessus ou les faire glisser en utilisant les doigts de telle manière que les possibilités d’interaction sont bien plus étoffées qu’avec un clavier classique. Lorsque les mains et les bras sont posés sur un bureau de la même manière qu’aujourd’hui, la localisation dans l’espace est encore plus simple. On peut d’ailleurs imaginer que sur le plan technique, la « sphère d’interactivité » limitée des bras et mains sera bien localisée et facilitera le développement d’applications et la vitesse de calcul qu’avec une position debout et mouvante. Oubliez donc le ballet manuel de Tom Cruise dans « minority report », on est déjà un stade plus loin. L’autre avantage d’un environnement 3d est que vous disposez bien entendu d’un « écran » de travail et d’action potentiellement à 360°. En réalité il sera sans doute plus limité par les limites de fatigue de rotation du cou et de la fatigue oculaire liée à la vision périphérique…

La science-fiction est souvent un laboratoire d’idées sur ces sujets. Toutefois « Minority Report » de Spieleberg (2002 ) est déjà obsolète par l’usage des gants que porte Cruise pour « gratter » les images affichées en 2d. Des capteurs de clavier permettent aujourd’hui de s’en passer.

Enfin une telle interface restant virtuelle, elle serait à même d’opérer en alternance avec la réalité augmentée, grâce à des lunettes se prolongeant jusqu’aux oreilles pour l’environnement sonore et certainement moins fatigantes à porter et plus pratiques qu’un casque. On pourrait donc travailler avec la même efficacité quelque soit sa localisation physique, le travail serait donc plus « nomade » que jamais, ou bien se servir d’un environnement alternatif dans sa vie quotidienne, passant de l’un à l’autre en fonction de ses besoins et selon les avantages des deux formules. En matière de « bulle » de calcul étendue rien n’empêche en effet, après calibration physique de l’utilisateur, le même type d’interaction dans un environnement en réalité augmentée, matérialisant par exemple ses éléments d’action par superposition dans un espace réel, les manipulant au besoin avec les bras. Le futur de l’interactivité sera gesticulant et fera penser à des concours de mimiques…

Et le web dans tout ça ?

Il deviendrait logiquement un univers en accord avec ces nouveaux usages. A savoir, les sites eux-même deviendront également « panoramiques », conçus pour fonctionner à 360°, des univers semblables à des pièces dans lequel on pourra évoluer comme pour un bâtiment. Les informations s’afficheront sur les « murs » vus en perspective déformée pour une meilleure visibilité et des éléments volants. Ils seront plus interactifs que jamais. Avec la multiplication des standards de connexion (cela à commencé avec l’inscription automatique via twitter ou facebook), votre présence seule sur un site sera notée et vos paramètres pré-enregistrés. La publicité sera également plus personnalisée et fine que jamais en fonction de profils déterminés par une analyse comportementale très poussée et reposant sur des modèles types en fonction des données récoltées : La psychologie au service de la réclame.

La scène du contrôle virtuel de Zion (Matrix 3 des frères Wachowski) est sans doute encore plus proche dans sa traduction graphique de ce que seront le travail virtuel au quotidien et l’exploration du web dans les années 2025-2050.

La grande inconnue sera l’ergonomie des lieux, à savoir par exemple quels mouvements seront nécessaires pour avancer (tourner c’est induit par les mouvements naturels de la tête). Mais la plupart des actions sur des « objets » dans l’environnement seront sans doute dictées par un usage, là encore instinctifs des mains avec des objets réels, et quelques spécificités pour des actions impossibles à retranscrire de manière « naturelles ». Les webmasters ne devront donc plus être seulement des graphistes 2D mais bien 3D, de manière à pouvoir personnaliser des objets « flottants » types et d’y inscrire des fonctionnalités supplémentaires. La puissance des micro-processeurs continue à progresser, et on l’espère la standardisation forcée par la complexité croissante des sites internet vont permettre d’incrémenter e nouveaux effets bien plus impressionnants que les actuels artifices permis par le language jquery.

Enfin, ces prospectives ne doivent pas masquer deux facteurs importants : La charge imposée en terme d’échanges, de calcul et d’affichage en temps réel de ces données va nécéssiter non seulement une nouvelle technologie de développement (exit les vieux tuyaux et les solutions en javascript, php-mysql) et une puissance de calcul infiniment supérieure à ce qui existe actuellement, probablement venant de la maîtrise de l’informatique quantique.

Calibrer son poste de travail.

Concrètement l’interactivité à son poste de travail ne sera possible qu’après une phase de « calibration ». Chaque individu étant différent, il faut imaginer définir une sphère contenant des éléments virtuels sur lesquels il faudra interagir. Les coordonnées seront enregistrées pour chaque action via feedback avec la projection de manière à définir la juste position des bras et des mains par exemple. C’est un système dérivé de ce qui existe déjà dans la motion capture. Outre un clavier virtuel, cela sera sans doute la somme des interaction déjà présentes pour l’utilisation d’écrans tactiles, auxquels s’ajouteront des gestes spécifiquement optimisés pour la troisième dimension. Voyez Leap Motion qui est un logiciel pionnier en la matière, quoique encore très imparfait. Comme toutes les application pionnières on reste limité à un certain nombre d’applis compatibles, où figurent néanmoins Le New York Times et Google Earth. Un reportage lachainetechno (01net TV)

Pour aller encore plus loin

L’horizon 2025-2050 c’est bien, mais l’horizon 2100 et plus c’est mieux. Si vous avez tenu jusque là, projetons-nous donc plus loin.

Le futur lointain du « web » sera depuis longtemps médiatiquement unifié: A vrai dire il n’y aura plus guère de séparation entre une utilisation « locale » (logiciels) et « online » (web). Les applications internet actuelles sont pour beaucoup des logiciels et la tendance en matière de complexité des sites web tend toujours vers plus de fonctionnalités, ce que nous faisons actuellement avec nos outils de veille, qui sont au départ des sites internet très améliorés (base technologiques semblables). Avec l’augmentation par un facteur de plusieurs milliards de la puissance de calcul les possibilités sont quasiment infinies. On peut très bien envisager qu’au prochain siècle, il n’y aura tout simplement plus de « jeux de mains », et ceci pour une bonne raison. La pensée va plus vite que les gestes. Plutôt que d’en passer par un clavier virtuel pour mimer le fait de taper sur des touches, il va sans dire qu’il est bien plus rapide de « dicter » mentalement un texte. En matière de télépathie les progrès sont constants aujourd’hui, notamment de manière à permettre aux paralytiques d’interagir avec leur environnement. On va donc vers un modèle d’interaction ou seule la pensée « courante » (la pensée claire qui précède immédiatement la parole), génère du contenu et interagisse, en collaboration avec la vision, sur des éléments graphiques 3D. Les gains de productivité issues d’une telle pratique seraient tout simplement faramineux. Une journée type de travail actuel de huit heure pourrait être réduite à quatre ou moins. Ce serait véritable l’âge d’or de la « civilisation des loisirs ».

Allons encore plus loin dans le temps.

A puissance de calcul surmultipliées, possibilités nouvelles, notamment la cartographie complète et en temps réel des interactions du cerveau. Quelles implications pour le web? Si on peut cartographier les interactions du cerveau on peut donc suggérer au cerveau des informations totalement factices. Cela permettrait par exemple de donner au cerveau l’illusion quasi-parfaite d’une réalité alternative (on retombe dans un scénario à la « Matrix »). Les sites web ne seraient donc que de petits univers créés de toute pièces, avec une gradation d’éléments d’apparence « réels » et d’autres purement virtuels mais fonctionnels. Mais quelle serait les implications de la vie ou du travail dans un monde totalement virtuel ? – Un gain de temps encore supérieur. En effet, en se passant des « auxiliaires » des cinq sens, alimentés à la base directement au niveau du cerveau, la rapidité du feedback entraîne une rapidité du traitement, avec auto-adaptation de l’horloge interne. Cela signifie concrètement que le temps vécu en virtuel passe deux, trois fois plus vite qu’en réel et donc permet de travailler notamment deux ou trois fois plus vite, avec les moyens vus précédemment qui font largement appel à la télépathie, mais cette fois « court-circuités ».

Au final on travaille donc bien plus rapidement encore, et bien plus efficacement qu’auparavant. Dans un univers virtuel par exemple, les contraintes d’espace-temps sont absentes, on peut assister à une réunion sans temps de transport. C’est son univers qui s’auto-adapte à ses propres besoins, et non plus le contraire. Physiquement le corps serait par contre maintenu en état d’immobilité totale proche de l’hypnose. Et le cerveau « surchauffe » et se fatigue bien plus vite dans ces conditions. On suppose donc d’une phase de travail virtuel serait suivi par un sommeil bien réel. Cela ne représentant que quelques heures à peine, le corps physique aurait alors l’essentiel du reste du jour pour travailler et ne pas perdre son équilibre naturel. Bien d’autres possibilité sont ouvertes par ce nouveau type de vie, mais là c’est le travail d’imagination des auteurs de science-fiction qui va combler les vides…

Alors, à quand la veille en 3d ?
Un sujet techno Rssintelligence.