Digital

Viedoc se positionne aujourd’hui comme l’un des acteurs incontournables de la veille et de l’intelligence économique en France.

Pour accompagner notre développement, nous cherchons actuellement un(e) stagiaire chargé(e) de veille digitale.

Véritable marque au cœur de l’information, Viedoc couvre l’ensemble des métiers de l’information à forte valeur ajoutée (de la surveillance à la diffusion en passant par l’analyse et sa capitalisation).

Avec 3 activités complémentaires, le conseil, les outils de veille et depuis peu la communication digitale, Viedoc accompagne les entreprises de toutes tailles et de tous secteurs, la plupart leader dans leur domaine.

 

Description du stage

– Vous assisterez notre équipe de consultants séniors dans la réalisation des missions, depuis la recherche d’informations jusqu’à l’analyse et l’élaboration de recommandations.

– Vous paramétrez nos outils de veille et contribuerez au sourcing thématique.

– Vous participerez au développement de notre nouvelle offre de veille digitale visant à accompagner les entreprises dans leur transformation numérique.

– Vous contribuerez à la visibilité de nos services sur Internet.

– Vous serez formé(e) à nos méthodologies et à nos outils.

Profil recherché

Vous êtes en dernière année d’école d’ingénieurs et/ou en cours d’acquisition d’une double compétence de type mastère spécialisé en école de commerce après des études supérieures scientifiques et techniques.

Vous avez un fort intérêt pour les problématiques d’innovation et de stratégie et une bonne connaissance des réseaux sociaux.

Nous attendons des personnes curieuses, rigoureuses et dynamiques, disposant de bonnes qualités rédactionnelles et relationnelles.

Français et anglais courant sont indispensables. La maîtrise d’une autre langue étrangère serait souhaitable (allemand, espagnol, italien).

  • Niveau d’étude : Bac +5
  • Date de début :  Dés que possible
  • Type de contrat : Stage conventionné, 5/6 mois, pouvant déboucher sur une embauche définitive en CDI
  • Rémunération: Selon profil
  • Localisation : Guyancourt (78)

Si ce stage vous intéresse, merci d’adresser votre candidatures sous la réf. SCV2015 (lettre de motivation + CV) par mail à info@viedoc.biz

Devenez un Google Power User avec 10 astuces

28 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Notre moteur de recherche préféré est en effet bien plus puissant que l’on imagine parfois. Mais son potentiel est en grande partie caché est reste seulement connu des « hackeurs ». Voici donc 10 trucs et astuces enseignés aux veilleurs en herbe:

1-Optimiser sa recherche on-site
Lorsqu’un site dispose d’un moteur de recherche mais que ce dernier n’est pas très performant, utilisez la requête suivante:
« site:votresite.fr motclé »

2-Optimiser sa recherche inversée d’image
Si vous souhaitez qui ou quoi est derrière l’image, obtenir des informations complémentaires la concernant. Au lieu d’effectuer une recherche par image il suffit d’effectuer une recherche « normale » (web) indexée à l’image

3-Effectuer un audit des mots-clés/requêtes les plus intéressantes
En utilisant la fonction Google Suggest (autocomplétion du champ de recherche) mais avec un underscore à la place du mot associé pour laisser Google sortir toutes les occurrences les plus populaires, comme outil de __ sur internet

4-Trouver des téléchargement facilement
(en passant outre les sites MFA qui les hébergent avec leurs publicités et virus…)
Avec la requête par exemple -inurl:htm -inurl:html intitle: »index of » apk pour des formats apk (android).

5-Trouver ses concurrents facilement
Dans le registre ou pour les produits/services les plus proches: « produit1 vs … » et soit remplir la mention, soit laisser blanc et l’autocomplétion faire son travail. Egalement vous pouvez utiliser Google comme comparateur avec « better than … » (votre produit/marque). La recherche se base sur l’E-réputation de la marque/produit telle que vue par google.

6-Afficher un site supprimé/modifié
Tous les veilleurs connaissent Wayback Machine. Ce service permet d’accéder à des versions de sites internet qui ont changé ou qui ont été supprimés, parfois 6 ans en arrière. Mais savez-vous que Google offre le même service ? Il s’agit de Google cache. Il suffit de taper « cache.http://www.votresite.com » pour accéder à un site disparu, blacklisté, hacké, etc.

7-Accéder à des sites bloqués
Vous avez un réseau d’entreprise ou d’université un tantinet zélé et vous ne pouvez pas accéder aux sites que vous souhaitez ? Vous pouvez y accéder de manière indirecte via google translate ! Avec la requête http://translate.google.com/translate?sl=ja&tl=en&u=http://exemple.com/ que vous devrez compléter en fonction du site visé…

8-Le Trombinoscope
Vous cherchez sur google une personne nommée « rose » mais Google vous propose la fleur à la place dans Google images ?
Pas de panique, utilisez « &imgtype=face » à la fin de l’url affiché and you are good to go…

9-Obtenir des résultats précisément datés
Les veilleurs savent combien il est énervant lorsqu’on scrute des informations affichées en lien avec sa requête de ne pas avoir les dates associées. ceci est dû au faite que les bloggeurs connaissant les astuces de référencement les retirent volontairement pour que la date affichée dans les SERPs ne soit pas un frein au clic, et l’article continue à « tourner » des années. On peut parfois obtenir des indices indirects via les commentaires de l’article (si venant d’un CMS, URL, etc.) mais aussi directement depuis google !
Tapez simplement à la fin de l’URl affichée: &tbs=qdr:h5 (5 dernières heures) &tbs=qdr:n5 (minutes) &tbs=qdr:s5 (secondes).

10-Faire une Power Search avec les opérateurs
Vous connaissez sans doute les opérateurs AND or OR, mais connaissez vous AROUND? Ce dernier afficher en effet le champ sémantique connexe, comme ici:
(like dent blanche).around(2) ou plus précis (like « dent blanche »).around(6) ce qui permet d’afficher les variants avec le mots pas forcément dans l’ordre.
On peut aussi combiner des éliminations avec l’opérateur « – » comme (like dent blanche -tartre).around(2) et même exclure un site web des résultats: (like dent blanche -site:doctissimo.com).around(2)

Maintenant c’est à vous de devenir à votre tour un(e) « Google Power user » !

Le 21 avril votre site sera-t’il responsive ?

25 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Depuis l’annonce de Google du 27 février dernier sur les critères de compatibilité mobile pris en compte pour le SEO, l’inquiétude a quelque peu gagné les webmasters et possesseurs de sites internet, d’autant que pour préparer le terrain Google Webmaster Tools envoie régulièrement depuis vendredi dernier des alertes « Corrigez les problèmes d’ergonomie mobile détectés sur … ».

L’annonce de google spécifiait en effet :

1. Autres sites Web mobile-friendly dans les résultats de recherche
À partir du 21 Avril, nous allons nous étendre notre utilisation du critère de compatibilité mobile pour en faire l’un des critères de positionnement du moteur. Cette modification affectera les recherches sur mobiles dans toutes les langues à travers le monde et aura un impact significatif sur nos résultats de recherche. Par conséquent, les utilisateurs trouveront plus facile d’obtenir des résultats pertinents, à travers des sites qui sont optimisés pour leurs appareils.

2. contenu d’applications plus pertinents dans les résultats de recherche
A partir d’aujourd’hui, nous allons commencer à utiliser les informations venant d’applications indexées comme un facteur dans le classement pour les utilisateurs signés, en qui ont installé l’application. En conséquence, nous pouvons maintenant donner plus de visibilité aux contenu générés ou partagés à partir d’applications indexées et leur donner une place plus importante dans la recherche.

Définissons « responsive ». Issu du terme « responsive design » c’est une tendance forte du webdesign depuis cinq années maintenant, avec la montée en force de ventes de smartphone et tablettes. Concrètement il s’agit d’avoir un site internet qui s’auto-adapte à différents formats selon son affichage: PC avec large écran TV panoramique, laptop, tablette ou encore smartphone. Deux solutions existent de concerts: Créer un site PC et un site smartphone, puis jouer sur l’auto-détection et des redirections, ou proposer la redirection à l’internaute. Le design ne consiste pas seulement à revoir l’affichage en fonction d’un écran plus petit, on y intègre aussi des fonctionnalités pour « touchpad », une ergonomie propre à ces écrans.

Google met clairement en avant son moteur mobile. On en avait déjà eu un aperçu avec la montée en puissance des aspects « usabilité sur mobile » et aux nombreux outils de vérifications qui avaient été ajoutés cette année.

Quelles conséquences faut-il tirer (Keep calm and check your website) en vue du 25 avril ?…
-D’abord ce mouvement de Google est basé sur une réalité: En 2014, 60% de hausse pour les ventes de mobiles, 68% de hausse de trafic de recherche sur mobiles, et 16% du trafic global sur le web en France (FEVAD).

-La mention « site mobile » apparaîtra en effet sur les SERPs (résultats de recherche) de mobiles sous android (Google) et affectera les choix des internautes à cliquer ou non. En outre selon le fichier robots.txt du site une description différente et parfois rédhibitoire sera offerte aux internautes sur mobiles (« la description de ce résultat n’est pas accessible à cause du fichier robots.txt de ce site… »)

-Toutefois, toutes les entreprises n’ont pas encore intégré le responsive design dans leurs priorités, loin de là (qui sont financières et à court terme actuellement !). La tendance est donc d’attendre de voir avant de se lancer dans une refonte, si l’impact a de réelles conséquences. Selon le type de cibles (jeunes+nomades) par exemple, cela s’impose. Pour d’autres, ce sera basse priorité sachant que les internautes/prospects attirés sur le site (en services BtoB par exemple) le sont aux heures de travail (grande majorité sur PC) …

-Un rapide examen de Google analytics montrera quelle est la proportion de ses visiteurs sur mobile et donc l’urgence ou non à effectuer cette bascule, compte tenu de ce que propose le site.

screen_mobile_GGA

-Beaucoup de sites internet sont déjà responsive (sans forcément qu’on le sache), s’ils sont basés sur des CMS et templates récents, construits avec bootstrap, etc. Le mieux est encore de tester pour voir. Qui plus est Google propose une pléthore d’outils en complément pour tester tous les aspects « mobile-friendly » du site et proposer des pistes.

En cas de non-responsivité, la refonte n’est pas quelque chose de particulièrement coûteux dans l’absolu. Pour un site fait sur mesure en html ou php (pas de CMS) on peut conserver la mise en page tout en changeant simplement les éléments de construction. L’exemple typique est la page d’accueil avec un carousel à taille fixe qui devra être mis en 100% (auto-adaptatif), de même que les images, et les typiques systèmes en « 3colonnes » qui non seulement seront en pourcentages mais avec un seuil qui fera qu’en dessous d’une certaine taille d’écran elles basculent à 2 colonnes puis une seule. Le menu devra aussi pouvoir « disparaître »sous un certain seuil de largeur toujours ouvrable à l’aide du maintenant célèbre icône « hamburger ». Il faut y ajouter le cas échant des modifications éventuelles pour le fichier robots.txt et htacess. Pour un bon webdesigner, c’est l’affaire d’une journée pour un site de 5-10 pages. (Consultez nous !)
Dans le cas d’un CMS il suffit de le mettre à jour, la plupart des maquettes « par défaut » récentes sont déjà responsive. Et dans certains cas, changer de template…

-Compte tenu de la proportion des internautes naviguant sur mobile (bientôt 20% quand même !), l’optimisation du site doit être mise en balance avec les services offerts et la cible visée, pour apprécier l’impact prospectif de ce changement sur ses ventes ou prises de contact. Si elle est reportée, elle reviendra tôt ou tard, dans un an ou plus, simplement si le marché du mobile continue sur ce rythme.

-En aucun cas Google ne « sanctionnera » les sites non responsive comme il a pu le faire avec les mises à jour de l’algorithme Pinguin et Panda, mais l’effet contre-incitatif se fera clairement sentir dans les résultats de recherche des mobinautes… En bref cette mise à jour participe aussi du grand motif officiel de google d' »améliorer l’expérience utilisateur ».

Pour finir, une petite clarification de Matt Cutts à propos de l’impact éventuel sur le SEO d’un « double site » pour desktop et mobile:

Les données Google Analytics vous mentent

24 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Qui n’a pas rêvé d’afficher de belles courbes de progression et des chiffres de fréquentation mirobolants sur son site internet ? Combien de fois de belles statistiques des chargés de référencement ont été présentées en réunion et combien de fois le ROI n’était pourtant pas au rendez-vous ? Qui est à blâmer, qu’est ce qui coince ?

L’aspect fondamental dans cet état des lieux est un constat que trop souvent les données statistiques brutes de Google Analytics ne sont pas interprétées de la manière qui convient, ou pas du tout. Or c’est souvent toute la stratégie de référencement qu’il faut souvent revoir après un audit Google analytics. En effet, quelques questions doivent être posées:

-Un trafic considérable sur son site est-il un gage de succès ?
-Les paramètres comportementaux ont-il étés pris en compte ?
-Comment fait-on le lien entre le ROI et ce trafic ?

-Démultiplier le trafic vers son site internet: Une fausse bonne idée !

Le point essentiel à considérer est: Qui vient sur votre site ?. Cela dépend en effet des stratégies de référencement adoptées. Une stratégie de référencement massif, agressive, et basée uniquement sur la popularité peut en effet engendrer une hausse impressionnante du traffic, mais les ventes ne vont pas suivre pour autant, ni la réputation de la marque. Ceci peut-être dû à plusieurs causes, mais le premier indicateur sera dans tous les cas le taux de rebond.

Si ce dernier dépasse en effet les 75%, voir les 80-90%, il faut sérieusement se poser la question de l’adéquation entre le contenu présenté sur la « landing page » (page d’arrivée des visiteurs sur lequel porte le référencement) et le travail de référencement fait en amont pour amener ce trafic. Si les visiteurs ne restent pas, cela ne signifie qu’une chose: Le contenu présenté ne les intéressent pas, et ils repartent. Il en résulte un taux de transformation très faible, voire insignifiant, et donc pas de ROI.

-Comment prendre en compte les paramètres comportementaux ?

Pour rebondir sur ce qui a été dit plus haut, le plus important paramètre a considérer est le taux de rebond (en anglais « bounce rate »). Ce dernier est visible dans le coin en base à gauche sous la courbe de trafic en page d’accueil du tableau Google Analytics (GGA). Il est convenu qu’au taux de 30 à 50% est très honorable, mais au-delà de 70% il faut commencer à se poser des questions. Au dessus de 80% il y a manifestement un décalage entre les attentes des internautes et le site.

Toutefois le taux de rebond seul n’est pas suffisant. Il faut le compléter par (sur la ligne au dessus, et à droite), le nombre de pages vues, et le temps de session pour compléter le taux de rebond par des données comportementales approfondies. Un taux de rebond associé a aucune visite de pages et un temps de session particulièrement court (une seconde plus ou moins) donnera l’impression effectivement que l’internaute « fait erreur » en arrivant sur votre page. Si en revanche l’internaute prends le temps de parcourir le site, mais repart sans transformation, c’est qu’il ne trouve pas ce qu’il cherche.

Il y a d’autres indications comportementales utiles à recouper comme l’indication (onglet « comportement ») d’internautes qui reviennent le cas échéant. Proche de zéro cela indique une perte sèche. Une forte opération de référencement/marketing qui n’engendre qu’un taux de retour après une première visite inférieur à 10% indique en effet un décalage entre la sémantique de campagne, les attentes des internautes et le contenu de la landing page…

-Comment faire le lien entre trafic et ROI ?

L’élément le plus important ici à prendre en considération est le taux de transformation. Le paradoxe est que cet élément ne figure pas dans les statistiques Google Analytics. Tout simplement parce qu’il faut un élément de captage à définir pour établir un tel taux, ce que l’on appelle généralement le « call to action ». Souvent un bouton suivi d’un formulaire ou autre suivant les cas. pour une société de service il s’agit d’une prise de contact. Il faut bien retenir que l’on a à chaque fois un process à trois étapes et donc en théorie 2 taux de transformations qui peuvent être regroupés en seul: Le passage de l’internaute qui « voit » l’annonce de votre site, la visite, puis le call to action.

C’est la conversion entre le travail de référencement fait (le site est visible dans les résultats de recherche sur certaines requêtes, naturellement ou via des annonces) et le passage de l’internaute en visiteur, puis prospect ou client direct (dans le cadre de l’E-commerce) qui définit en fin de compte l’efficacité de toute campagne et donc le retour sur investissement (ROI.).

Au final les données google analytics affichant les chiffres records mais aboutissant en pratique à un faible taux de transformation (ex. moins de 1%) signale manifestement un problème d’approche de la stratégie SEO ou même de ciblage. On ne vise tout simplement pas les bonnes personnes. Il est donc important en amont de toujours vérifier l’adéquation de sa stratégie SEO au public visé. En effet mieux vaut réduire son périmètre ou travaille la « long tail » (requêtes longues et plus précises) pour aboutir à une plus forte transformation, à plus faible trafic.

Moralité: Les chiffres faramineux en eux même ne veulent rien dire, Google analytics vous ment. C’est sur le ROI au final que l’on juge de la pertinence des efforts fait pour attirer les visiteurs « qualifiés » et donc les futurs prospects en puissance. C’est le taux de transformation qui fait toute la différence, quitte à avoir une fréquentation dix, cente, mille fois inférieure…

The Grid: Une IA de webdesign

16 Fév 2015, Posté par D. Bocquelet dans Digital

L’arrivée récente de The GRID a provoqué du remous dans le landernau des webdesigners. Une profession il est vrai de peu de poids sur le plan médiatique, quoiqu’elle puisse présenter concrètement son travail contrairement aux référenceurs. Or, the Grid n’est pas le surnom d’un ensemble de réglementations contraignantes venant contingenter ladite profession mais une intelligence artificielle censée créer des sites internet « at random », apparemment de manière autonome. Une vraie révolution ou un beau ballon marketing ?

C’est ce que nous allons essayer de décoder.

D’abord ce n’est pas un projet encore 100% mature, puisqu’il est actuellement en phase de financement, précédé d’un projet kickstarter (maintenant fondé en 2013), NoFlo, une plateforme ergonomique pour développeurs. Ce projet à l’étude depuis 3 ans et demi réunit une équipe de 4 membres fondateurs, Dan Tocchini, (CEO et Co-Fondateur de la société), l’Ex-directeur produits de Google AdSense Brian Axe, Le lead designer Leigh Taylor et le directeur technique Henri Bergius, réunis à San Francisco en 2010.

L’équipe espère lever sur son propre site 70 000 dollars pour finaliser le développement et lancer le produit commercialement en mai prochain. Les fondateurs (plus de 200 000) se verront gratifier alors de bénéficier d’un avoir leur permettant de disposer de leur propre site à 8 à 25 dollars au lieu de 95 par mois, prix public.

D’après Dan Tocchini, « Nous avons passé les quelques dernières années à créer une forme d’intelligence artificielle qui fonctionne comme votre propre graphiste personnel, capable de penser votre marque et de la présenter de la meilleure façon possible. Le design s’adapte à votre contenu, et non l’inverse. » Il est dit que la solution se passe de template et peut gérer textes, images, vidéos, URL… en temps réel, pour créer le meilleur assemblage possible. Au final, chaque site est censé être unique et taillé sur mesure. Les cibles: WordPress, WIX, Drag&Drop…

Un bon pedigree pour un produit qui se veut à première vue (encore!) une plateforme centralisée de création de sites internet. Le principe est simple et on peut trouver ce type de plate-forme partout sur le web, dès lors que l’on google « site gratuit ». Le marché est devenu mature avec une short-list de plate-formes qui se sont rachetées les unes les autres et des modèles de financement maintenant bien huilés. Comment innover encore sur ce créneau saturé ?

The GRID compte donc créer la surprise en appelant simplement la dernière étape logique après lesdites plate-formes qui étaient déjà hautement automatisées. Le principe en était que les utilisateurs conçoivent eux-mêmes leurs sites à partir de systèmes de templates et d’un éditeur Wysiwyg. En principe personne n’intervenait dans le processus de création et le résultat final était une combinaison de la qualité de l’éditeur en génération de code (propre, intelligent et léger… ou non!), et des choix personnels de l’utilisateur, pas forcément formé au webdesign ni au marketing.

L’étape suivante était donc de supprimer l’utilisateur de l’équation en laissant faire par une intelligence artificielle toute la phase d’intégration des contenus et leur mise en page. Il ne s’agit pas à en croire The Grid d’un processus 100% autonome, puisque l’utilisateur a quand même quelques choix éditoriaux à faire et garde la maîtrise de son contenu, mais le processus de mise en page et toutes les opérations satellites sont effectuées au dire de l’équipe, en toute autonomie. Le lancement du concept s’est accompagné d’une réflexion sur le métier de webdesigner, au sens plus large, et la reconnaissance de la difficulté croissante de son travail. Une difficulté qui le condamne à long terme -c’est en tout cas le pari fait par The Grid.

Concrètement de nos jours, un(e) vrai(e) webdesigner, c’est à dire un(e) professionnel(le) qui ne soit pas qu’un(e) simple « infographiste », doit pouvoir matérialiser en code interprétable par les navigateurs un design 2d issu de photoshop ou autre application en site internet fonctionnel avec l’apparence requise. Les interactions, qui ne se voient pas dans un design web, sont ensuite définies en fonction des connaissances du webdesigner et des attentes du client et des pratiques de la concurrence en matière d’interactivité. Ce travail peut intégrer un framework existant (comme bootstrap), qui permet d’avancer beaucoup plus vite que de développer tous les éléments à façon, réduisant d’autant la facture. Mais il reste à intégrer des éléments de responsivité et des plugins, API et autres éléments qui peuvent être conflictuels. Et il ne s’agit même pas d’habillage de template et customisation de CMS.

Le choix des couleurs, tonalités et mises en pages des photos par rapport au texte, etc… relèvent de décisions quasi « artistiques » qui font appel au goût et aux pratiques observées ailleurs. Il s’agit de choix en apparence subjectifs et associés naturellement à un être humain, pas à une IA.

La première simple déduction concernant le produit vient du doute qui s’installe quand au fait que ce système peut créer des sites vraiment personnalisés. A voir les screenshots, on n’en est pas forcément convaincu. En effet à la base, il a fallu penser pour mettre au point les « goûts » supposés parfaits de l’IA et le programme derrière les choix de mises en page reflètent les choix personnels des techniciens derrière, notamment Leigh Taylor et Brian Axe. On ne peut pas ne pas suivre les modes en matière de design web et il est certain que si cette AI n’est pas capable de les suivre, les designs seront vite « datés ». Qui plus est il est assez facile aujourd’hui de détecter des sites « made in bootstrap », ou les CMS avec templates populaires. Il y a de fortes chances qu’il en sera de même avec The Grid.

TheGrid-screen1

Une IA serait-elle capable d’engendrer des millions de sites totalement différents ? Sur le plan mathématique seulement. Car s’il on considère les tendances marketing, les modes du webdesign et l’ergonomie la plus récente en usage, cela va vite donner à ces produits un goût fort de « déjà vu ». Les clients seront-ils d’accord au final avec le résultat de de l’IA ? Serait il possible dans le cas contraire d’effectuer des modifications ou faudra t’il effectuer un « shuffle » avec le risque que la nouvelle mouture ne soit pas plus convaincante ?
Il est vrai cependant que la simple faculté de générer automatiquement un site internet en changeant quelques paramètres va permettre de faire ce qui prend bien trop longtemps à un webdesigner avec des méthodes classiques. Et en soit c’est déjà considérable car cela donne aux clients de plus fortes probabilités d’êtres satisfaits avec le moindre effort…

Pour rependre les termes officiels, l’IA serait capable de:
– « Collecter » des images et du texte venant d’Internet via un navigateur ou extension mobile pour la mise en page du site.
– Analyser le contenu soumis et créer un site web réactif en seulement trois minutes.
– Automatiser la gestion des couleurs, le découpage la mise en page du texte et son positionnement sur les images. Le logiciel sensible au contenu détecte les contrastes et détermine en conséquence leur position optimale.
– Recadrer automatiquement les images à l’aide de fonction de détection des visages ou objets.
– Construire un site web entièrement depuis un smartphone ou une tablette.
– Publier du contenu directement sur plusieurs sites Web à partir d’une source unique.
– Utiliser un « call to action » adaptatif (fonctionnalité-clé/commerciale) disponible fin du printemps 2015.

Alors, Les webdesigners seront-ils au chômage lorsque d’autres plate-formes auront repris la même formule ?
Il est certain que si elle ne finit pas en flop après un ou deux ans d’exploitation, l’idée reste séduisante… pour les financiers. Elle procède d’une étape logique qui associe les progrès des IA auto-apprenantes et gomme progressivement le maillon humain de l’équation, en allant vers plus d’efficacité supposée. Un code 100% généré pour un projet unique est en effet mille fois plus avantageux qu’une solution « bâtarde » comme un CMS avec template et plugins, trois échelons qui ne se marient pas forcément bien et coûtent cher, et génèrent des kilomètres de code superflus et redondants. C’est aussi plus séduisant sur le plan financier qu’un site 100% unique mais 100% humain, avec le temps de travail qu’il faut bien rémunérer. Avec des conséquences pour la vitesse de chargement, meilleur expérience utilisateur, moins de place prise sur le serveur, et au final, moins d’énergie consommée dans le monde « réel ». Créer un site sur mesure en le codant à 100% à la main prends beaucoup de temps. Une IA pourra le faire presque gratuitement, si ce n’est le travail derrière pour développer l’IA et l’interface utilisateur.

Enfin, cette IA est bien en charge du webdesign et ne gère apparemment pas les aspects Marketing et référencement, avec les conséquences que l’on imagine très vite. Ce projet n’est donc viable que pour la même catégorie de « clients » qui plébiscitent les sites « gratuits » et dédaignent les agences: Commerçants, artisans et TPE-PME, particuliers, qui ne connaissent que l’aspect premier d’un site internet: Son apparence. Les grands sites seront eux toujours sur mesure car feront toujours appel à une intelligence bien humaine tant leur réalisation relèvera de négociations et d’équilibrages complexes, bref un travail d’équipe autour d’un cahier des charges et de la vision d’un client, avec une vraie stratégie d’ensemble qu’aucune IA ne pourra jamais satisfaire.

endless corridor

Quand à la plateforme, les bases profondes de son fonctionnement dépendent de …webdesigners. Si ces derniers disparaissaient il est facile d’imaginer les conséquences d’un web « bas de gamme » entièrement généré par des IA. Une uniformisation totale à terme, faits de sites tous « parfaits » car tous sur-optimisés. Une vision Orwellienne de couloirs interminables constellés de portes identiques sur fond cliniquement blanc. Une image à la « matrix »…

Edit: Le 7 juin 2016, WIX (Israel), plate-forme CMS bien connue, annonce à son tour une Intelligence Artificielle de webdesign. La course est lancée pour les grands opérateurs du web 1&1 MyWebsite, Jimdo, I-Monsite, Weebly…

La fin du Captcha annoncée.

06 Fév 2015, Posté par D. Bocquelet dans Digital

Ou pour préciser un peu plus les termes, « fin annoncée par google. » En effet, les avances en matière de détection du comportement et algorithmes associés permettent au géant de Mountain View de présenter son alternative nommée reCAPTCHA en décembre dernier. Le système sevrait se déployer sur le nombre considérable de sites internet utilisant un formulaire et est particulièrement rafraîchissant dans son fonctionnement.

En effet, plus besoin de s’infliger la corvée de discerner et reporter une suite de chiffres et lettres torturées avant de valider son envoi (En outre sous peine se tromper et perdre son message, en plus de passer pour un robot !).  Avec son nouveau système Google ne demande que de cocher une case « je ne suis pas un robot », ni plus ni moins. Ce que fait l’API de Google est en fait de discerner et d’analyser l’interaction avec reCAPTCHA pour valider la nature de l’intervenant. Si par malheur vous passiez encore pour un robot (peut-être moins d’1% des cas selon Google) un système de captcha alternatif serait proposé, apparemment bien plus efficace que le traditionnel jimbo de caractères: Une série de photos, mises en relation. Typiquement une photo de chat qui correspondra avec d’autres chats/chiens/perroquets/plantes/etc. D’apparence inoffensif ce petit quizz est un piège à robot, car l’analogie ne peut se faire sur des critères de formes/nuances automatiques volontairement modifiés pour casser tout exercice logique – au moins du point de vue d’un ensemble d’algorithmes. Parmi les utilisateurs du nouveau système de Google citons Snapchat, WordPress et Humble Bundle.

Quid du traditionnel captcha ? D’après Google il serait maintenant complètement inefficace car « cracké » à 99,8%  par les robots actuels.

Présentation officielle. Pour installer ReCaptcha: https://code.google.com/p/recaptcha/wiki/HowToSetUpRecaptcha

Un peu d’histoire…
Rappelons un peu les origines du problème: Nous sommes dans les années 1990, et internet est encore dans sa petite enfance. Les intérêts financiers en moins, le spam est un concept encore pionnier dû à de rares hackers. On ne se méfie alors aucunement de laisser bien en clair son adresse mail sur son site internet. Entre temps la bulle internet est passée par là et virtuellement tout le monde se voit doté d’au moins une adresse mail. Une aubaine pour les publicitaires qui commencent à récolter par tout les moyens les mails de prospects potentiels. Très vite, les ex-hackeurs se font rémunérer pour passer d’un travail laborieux, souvent manuel, à une suite d’algorithmes calibrés pour détecter et collecter ces adresses, puis diffuser du contenu à ces mêmes adresses. Des robots, ayant bien des points commun avec les crawlers utilisés pour la recherche internet au sens large.

Puis vers le milieu des années 2000 avec la seconde bulle internet, l’industrie du spam atteint des records. Un internaute peu méfiant se verra arrosé copieusement d’offres « commerciales » manquant singulièrement de finesse, voire embarrassante, et pourra en outre laisser son adresse en s’inscrivant à de multiples services gratuits, sans garantie dans l’utilisation des données. Les fournisseurs d’accès et hosteurs mail unissent leurs efforts et proposent alors d’établir une stratégie de filtrage antispam dont la vigueur va croissante, parfois même zélée, tandis que les spammeurs jouent au chat et à la souris en multipliant les parades, dont des adresses d’envoi changeantes sans cesse, des variantes sans fins dans l’objet, le contenu, etc… De vrais mails « légitimes » pâtissent alors de cette guerre silencieuse au grand dam des utilisateurs de boîtes mail, et même l’utilisation d’un certificat serveur n’est plus forcément une parade.

Entre-temps les formulaires de contact font leur apparition:  Ils ont un double avantage. Ils masquent aux robots l’adresse a laquelle les données vont être envoyées (sauf lorsqu’elles sont encore présentes dans le code de la page) et permettent le cas échéant de récolter des données classées sur des prospects potentiels. Les captchas font leur apparition ensuite, car les référenceurs « black hat » on pris l’habitude de développer des robots calibrés pour déposer des « pseudo-contenus » en masse sur tous les sites internet possibles, assortis de liens sur optimisés. Si la chose est connue très tôt sur les blogs ouverts aux commentaires et aux forums, elle nuit également aux sites internet avec formulaires car les données remplies peuvent être de la réclame de même type que le spam classique (« mail »). Et pour y faire face, on déploie différents types de captcha (de « Completely Automated Public Turing test to tell Computers and Humans Apart ») destinés à effectuer ce contrôle avant validation. Le fameux « test de Turing » fut élaboré par le génial mathématicien et pionnier des ordinateurs Alan Turing dans les années 40.

Les captchas sont en général du type visuel, un champ suivi d’un affichage visuel aléatoire présentant une suite de lettres et/ou de chiffres, générés grâce à des images composites qui avec le temps sont brouillés pour empêcher leur lecture par des robots, moins exercés que l’oeil humain à discerner un dessin au sein de formes complexes. Toutefois cette course aux armements avec des robots de pus en plus performants (et aidés par la standardisation des Captchas) conduisit à des déchiffrages parfois même difficile pour des humains. D’où frustration, colère parfois, de se voir refuser une simple prise de contact à cause d’un système de protection. A cette fin un « shuffle » (bouton qui recharge le visuel) ou captcha alternatif (audio par exemple) sont apparus pour éviter ce blocage. Toutefois la courbe d’apprentissage et la vitesse d’exécution (pour de robots testant les solutions jusqu’à épuisement) font que cette guerre est perdue dans tous les cas.

Même avec reCAPTCHA Le problème reste présent
Ne nous racontons pas de contes de fées, le système de Google ne fera que simplifier la procédure de sécurité, mais elle ne stoppera en aucun cas le spam, qu’il provienne ou non d’ailleurs d’un formulaire de contact. Il est bon de rappeler une vérité toute simple, dont se servent abondamment les robots: Chaque nom de domaine pour des raisons pratiques, souvent dans un cadre professionnel, se voit doté d’au moins une ou plusieurs adresses mails, assises sur le nom de domaine ou un nom de domaine proche. L’exemple le plus simple est « contact@monsite.com » ou « info@monsite.com » qui peuvent êtres simplement présumées exister. Un robot qui détectera des noms de personnes pourra de la même manière décocher des mails en reconstituant des adresses de contact fictives: Exemple: Pierre Dupont pourra devenir avec de grandes probabilités de vraisemblance basée sur des cas analogues, p.dupont@monsite.com ou simplement pierre.dupont@monsite.com. Un bémol cependant. Sur un serveur d’ou partent des mail, surtout quand ce dernier est mutualisé (donc peu cher, ce qui convient parfois aux hackers) ont des garde-fous non seulement pour empêcher les envois de mails massifs, mais également les trop nombreuses erreurs de mail (légitimes ou testées). Le ratio varie de 1 à 10% et plus selon la tolérance appliquée. Il y a aussi les mailings sur des bases de données datées (très) qui engendrent également des erreurs. Pour le reste, cela ne gêne aucunement les hackeurs qui utilisent des PC ou serveurs zombies pour leur envois de mails et « grillent » ces derniers.

Pour les systèmes de contact sans collecte (base de données) l’envoi des données à partir e la page du formulaire se fait sur une adresse collectrice, tandis qu’un mail de confirmation de contact est bien souvent envoyée à l’utilisateur du formulaire (cela vaut pour toutes les inscriptions en général). Or, le mail part du site internet (pop) et pour être vu comme « légitime » par les serveurs receveurs (smtp) il doit en principe être identique au nom de domaine. On en revient donc à la forte probabilité d’utiliser une adresse mail basée sur le nom de domaine, que les robots utilisent à plein.

Comment se prémunir du spam:
Dans l’absolu, les captchas ne sont pas infaillibles, on peut faire attention à ne jamais laisser son adresse mail en clair ou se restreindre d’ effectuer des inscriptions pour des services gratuits d’utilité souvent douteuse et prenant cet alibi pour effectuer de la revente d’adresse. On peut aussi utiliser à dessin une adresse pour cette fin, et utiliser une autre adresse pour échanger avec ses contacts. Enfin on peut aussi utiliser une adresse mail, même professionnelle, difficile à deviner, comme pdcont@monsite.com pour « prise de contact » par exemple, voir des adresses ne faisant pas de sens pour des robots (mais qui paraîtront bizarre aux receveurs humains !). Il en est de même pour les adresses personnelles ou l’on peut éventuellement mixer de manière un peu savante noms et prénoms (les prénoms sont connus des robots). Faites preuve de créativité et organisez vous !

Un milliard de sites web. Et moi, et moi, et moi…

30 Jan 2015, Posté par D. Bocquelet dans Digital

Un chiffre qui donne le vertige, mais qui doit être nuancé…

Un milliard. C’était attendu avec la croissance exponentielle du web, encore spectaculaire en 2013 avec une croissance globale de 33%. Un milliard, c’était le chiffre tombé le 17 septembre 2014 de l’institut statistique Internet Live stats d’après ses propres relevés et confirmés par le très officiel ICANN, instance internationale en charge des noms de domaine, alors même qu’en mars, on fêtait les 25 ans du réseau des réseaux. Mais pour ce milliard, il s’agit bien de sites web, non de noms de domaines qui pour beaucoup ne sont que des redirections ou ne sont pas exploités.

Un monde virtuel mais avec un impact concret sur le monde réel.

Un milliard de sites web pour plus de 7 milliards d’habitants sur cette bonne vieille terre. Un site pour 7 habitants mais « seulement » 3 milliards d’internautes. Le monde paraît donc très connecté, mais il faut faire la part du bon grain et de l’ivraie car les données brutes ne donnent pas la vraie nature de ces contenus dont une frange considérable appartient encore au domaine du …spam. On rappellera l’impact de ces données de « pauvre utilité » pour les internautes, qui sont néanmoins hébergés sur des datacenters et contribuent aussi fortement à la dégradation de l’équilibre climatique; En effet toujours d’après Internetlivestats.com la seule consommation électrique quotidienne liée a internet a produit 2,17 millions de tonnes de rejet de CO2.

En effet certains acteurs du web produisent des centaines, voir des milliers de sites web qui n’ont qu’un contenu hautement artificiel, simplement pour soutenir une offensive de référencement backhat ou assimilé. Si la part des sites faits de manière automatisée tend à diminuer du fait de leur détection et de leur sanction sévère plus efficace de Google, la production est en parallèle tout aussi vigoureuse. Leur part restera de toute manière bien plus faible que celle des « mails » envoyés chaque jour, 170 milliards d’après Google, et donc un solide 80% appartiennent au domaine sans équivoque du spam.

Le web profond s’approfondit : Les abysses du web

Outre les site spammy parfois anciens et oubliés mais qui constitue cette « masse sombre » perdue dans les abysses des résultats de recherche (en passant autour de 3.2 milliards de requêtes de recherches par jour pour google), il y a aussi des « sites » réalisés par les hosteurs de noms de domaine, qui truffés de liens automatisés pour conserver une partie du référencement du nom de domaine abandonné par son propriétaire après inactivité. Il y aussi les sites d’entreprises ou de particuliers, innombrables, qui ne sont plus mis à jour mais restent présents sur un serveur. Tout ceci occupe encore une place considérable du « web ». Mais il faut bien souvent plonger, parfois très profond pour les voir. Et telle une tranquille sédimentation océanique, couche après couche et année après année, ces contenus oubliés s’accumulent, pour en arriver à ce chiffre.

Le référencement, plus que jamais.

Ce qui laisse encore un nombre confortable de sites web légitimes, récents ou simplement bien portants qui sont autant de concurrents pour la présence sur le web de toute entreprise. Donc nous en revenons encore aux bases d’un bon référencement pour sortir de cette masse. Outre les adeptes des campagnes adwords, il y a bien entendu toujours les « classiques », à savoir un site web bien construit, rapide, attirant, efficace, interactif de manière a créer la fameuse « expérience utilisateur » mise en avant par Google. Qui donc possède un site web ayant ces qualités, mis à jour fréquemment, relayé sur les réseaux sociaux et d’autres médias (documents, vidéos) n’a donc rien à craindre, quand bien même ce chiffre donne le vertige.

Pensez à Viedoc si vous souhaitez un audit de votre site web…

Méthodologie d’évaluation d’un nom de domaine

08 Jan 2015, Posté par D. Bocquelet dans Digital

Après une demande de transfert de nom de domaine assortie d’une proposition financière, nous nous sommes plongés dans les affres de l’évaluation monétaire d’un nom de domaine. Nous espérons que cela soit utile à qui sera confronté à ce problème.

Avant toute chose, il faut définir la valeur d’un nom de domaine dans l’absolu.

  • Un nom de domaine fraîchement acheté à une valeur basique définie par les frais administratifs de l’ICANN en fonction du TLD, et des marges prises par les revendeurs et hébergeurs (1&1, ovh, gandi, etc…). En général ce prix s’établit sous la barre des 10 euros…
  • A cette valeur d’achat initiale ils faut ajouter une valeur sémantique établie en fonction de la concurrence
  • Un nom de domaine ancien prends une valeur qu’il faut modérer en fonction du référencement qui a été pratiqué

Pour ce qui concerne les noms de domaine anciens, ils acquièrent un maximum de valeur si :
-Le champ sémantique du site correspond au champ sémantique du nom de domaine
-Le site est resté le même sur une longue période (pas racheté, revendu, refait avec autre contenu…)
-Le référencement est « propre » (au yeux de google). Avant -à l’inverse- d’effectuer un achat, c’est une chose à rappeler…

Un nom de domaine peut créer de la valeur pour son propriétaire en générant des gains liés à l’activité du site s’il est actif. La valeur ajoutée d’un site peut se mesurer à l’aune des investissements (en temps et en valeur fiduciaire) qui ont été faits pour son référencement, mais aussi via des revenus financiers induits, construits sur une popularité et une démarche volontaire (dons et revenus publicitaires type adsense).
Par ailleurs, même si le nom de domaine n’est pas relié à un site Web actif, il peut encore générer des revenus indirects, résultants d’économies de coûts associés à la prévention un cybersquatteur ou concurrent de s’emparer du nom de domaine et des potentialités sémantiques associées.

La propriété d’un nom de domaine confère au propriétaire avec deux types de droits:
Le premier est lié à la flexibilité managériale, puisque le choix lui appartient de développer le site Web associé, ou de capitaliser le nom de domaine pour une période ultérieure. Le second droit est associé au pouvoir des marques. Si le nom de domaine est liés à une marque, le propriétaire reçoit en sus le droit à la protection juridique de cette dernière, qui protège le ou les noms de domaines associés. Le/la propriétaire peut ainsi empêcher quiconque de revendiquer le nom de domaine, si il/elle souhaite exercer ce droit. Les options disponibles pour le propriétaire de la marque varient depuis une action en justice de plein droit pour obtenir l’us d’une nom de domaine, et pleine latitude pour acheter le nom de domaine. Ainsi la valeur du nom de domaine est la résultante des bénéfices attendus et des options générées, souplesse de gestion et bénéfices liés aux marques.

Voici les différentes méthodes que nous avons testé:

Les sites d’évaluation gratuits :
-siteprice.org
-estibot.com
-valuate.com
-siteworthchecker.org
-instica.com
-domainindex.com
-domainvaluecongland.com
-valuegator.net
-urlrate.com
-godaddy.com
-dnsaleprice.com*
-valuemydomain.name
*estimation en fonction du prix de vente de domaines approchants

Utiliser ce type d’évaluation gratuite reste extrêmement problématique.
1-La variabilité des résultats en font une option peu convaincante. Nous avons ainsi pour le même nom de domaine, eu une évaluation supérieure à 10,000 euros, et une autre à 0 euro, la plupart se situant entre 30 et 500 euros.

2-La base d’évaluation reste le plus souvent très superficielle du fait de l’automatisation du process. Sont pris en compte des critères externes mesurables, présents sur le net (ex. audits alexa, etc…) qui se basent sur la popularité (nombre de liens) mais n’examinent à aucun moment leur qualité, l’estimation du trafic SEO à un instant T, l’E-réputation ou le ranking (mentions obtenus sur la requête du NDD), entre autres.

3-D’autres sites proposent une évaluation semi-automatique nécéssitant de disposer déjà de données (traffic, âge, cible, etc). C’est une méthode plus fiable mais plus chronophage.

4-Certains sites ne proposent aucune données sous un certain niveau de trafic (-100 visites/jour par exemple).

5-Certains sites n’envoient les résultats qu’après avoir soumis une adresse mail, qui sera ensuite revendue aux spammeurs et publicitaires de tout poil…

Toutefois, faut de mieux et de temps, une soumission « à la louche » sur ces sites, assorti ensuite d’un calcul moyen permet d’avoir un premier chiffre grossier, qu’il conviendra de préciser en fonction d’autres critères, que l’on peut retrouver (en partie) plus bas.

– La première constatation d’évidence est celle-ci: Un nom de domaine ne vaut rien si personne n’est prêt à l’acheter. S’il est trop éloigné de champs sémantiques intéressants et concurrentiels ou de marques connues, sa valeur diminue d’autant. S’il est court, il aura d’autant plus de valeur. Le SEO a changé, et s’il est intéressant de cultiver les « longue traînes » dans les URL et le contenu interne d’un site, il ne sert plus à rien de disposer d’un nom de domaine également en « longue traîne », Google se basant sur d’autres critères pour évaluer la valeur d’un site. Ce choix repose alors sur une approche marketing.

Quelques pistes toutefois: Le trafic d’un site acquiers de la valeur si le repreneur du nom de domaine compte rester sur cette même thématique. C’est pour cela que les « parkings » de noms de domaine créent un faux site ultra-optimisé dans la même sémantique pour conserver sa valeur SEO autant que faire ce peut. Leur popularité externe ne diminue pas forcément même si le contenu change, du fait de l’immobilisme le plus souvent des pages pointant vers lui. Courant sont en effet les sites ayant des webmasters à l’affût de liens brisés à partir de statistiques, mais bien moins sont ceux qui effectivement suivent les liens pour contrôler la permanence du site, bien que faire un lien sortant vers un site de mauvaise qualité pour google n’apporte rien. Donc même parqués pour des années, bien des sites conservent ce capital de liens.

La méthode d’évaluation longue:

Comme l’a reconnu l’USPAP, il existe trois méthodes généralement admises pour estimer la valeur de tous les actifs:
1-L’approche du marché, destinée à refléter les prix comparatifs du marché;
2-La méthode du revenu destinée à refléter la valeur économique de l’actif;
3-La méthode du coût, qui vise à refléter les caractéristiques d’utilité de l’actif.
Ces approches s’appliquent aux actifs incorporels et aux propriétés intellectuelles, ainsi qu’aux biens corporels.

Chaque méthode d’évaluation met l’accent sur un attribut du nom de domaine. En utilisant ces trois méthodes on peut augmenter la valeur de confiance quand à l’analyse finale. Néanmoins, des valorisations faibles résultent de l’utilisation naïve de ces trois approches. Or c’est souvent l’information disponible pour l’évaluation qui doit déterminer l’approche utilisée.

L’approche du marché examine les caractéristiques comparatives de biens raisonnablement compétitifs. Avec suffisamment de données transactionnelles axées sur le marché à partir de laquelle estimer un nom de domaine comparable, on dispose d’un instrument relativement fiable d’emblée. Dès lors que le nom de domaine à examiner s’éloigne de la compétition, la méthode d’approche du marché s’affaiblit.

L’approche du revenu repose sur le flux de trésorerie que le nom de domaine devrait générer sur sa durée. Cette approche nécessite une estimation raisonnable des flux de trésorerie futurs et leur risque. Ainsi, la qualité de l’évaluation dépend de l’exactitude des estimations utilisées dans le modèle d’évaluation.

La méthode du coût regarde le de reproduction ou de remplacement d’un atout. Cette approche ne est pas appropriée pour les noms de domaine et des actifs incorporels, puisque le coût pour remplacer un tel actif est rarement le reflet de sa valeur, sauf à sa création.

L’approche de marché du nom de domaine pour son l’évaluation tient la fois d’un art et d’une science. L’art provient de la connaissance et de l’expérience pris en compte dans la compréhension des facteurs influant sur la valeur d’un nom de domaine, tandis que l’approche scientifique implique des techniques statistiques pour quantifier l’importance de ces facteurs.

Par exemple, en comparant plusieurs TLDs (extensions) d’un nom de domaine .net/.com/.biz on peut être plus facilement en mesure d’évaluer toute extension. Toutefois dans la réalité la tarification des extensions de noms de domaine se heurtent à deux obstacles majeurs: Pas suffisamment de noms de domaine avec des extensions différentes pour effectuer un ratio fiable, et la relation de prix entre ces différentes extensions peuvent ne pas être un multiple constant vis à vis des unes et des autres.
On peut en revanche utiliser des techniques statistiques pour prédire le prix de noms de domaine comparables fondés sur une base de données fiable des prix de domaine. Un modèle statistique de prédiction est donc bienvenu, et une condition préalable pour effectuer toute évaluation significative.

Les modèles statistiques utilisent la relation entre ces facteurs et les prix des noms de domaine vendus, pour déterminer le prix d’un nom de domaine donné à un moment précis dans le temps. Ces modèles fournissent une méthode « scientifique » pour estimer la valeur d’un NDD sur la base de comparaison.

Les techniques traditionnelles de régression linéaire ne donnent pas de résultats satisfaisants, du fait que la relation entre les prix du marché et les extensions sont plus susceptibles d’être non linéaires. Ces « variables muettes » pour chaque extension ne donnent pas des résultats significatifs. En outre, parce que le marché du nom de domaine est relativement nouveau et pas encore très actif, des techniques statistiques plus solides sont nécessaires.

A la base du modèle statistique se trouvent un ensemble de critères en fonction de la demande de noms de domaine et les prix historiques pratiqués des noms vendus. Le modèle estimé donne le meilleur rapport entre les critères et la valeur spécifiée. Cette relation est utilisée pour prédire le prix de ne importe quel nom de domaine. Il y a environ 10-12 de ces critères quantifiables, comprenant le nombre de requêtes sur Google pour le mot clé incorporé inclus dans le NDD. Ces critères ne prennent pas directement en compte la contribution d’une marque à la valeur d’évaluation, car elle nécessite de nombreux calculs et des données spécifiques à la collection des domaines liés à la marque.

Concernant les base de données d’évaluation pour estimer le modèle prédictif de la valeur, les prix de transaction prélevés dans des ventes aux enchères publiques, les prix des NDD mise sous séquestre et les données d’enchères scellées peuvent être pris en compte. Pour chacune des variables de prédiction, les données sont collectées à partir de sources accessibles au public au moment de la vente.


L’approche du revenu est généralement utilisée pour prédire le bénéfice potentiel de référence d’un site web dans l’évaluation des sites Web actifs et les noms de domaine liés à des marques. Cette approche par le résultat d’une évaluation, ou Discounted Cash Flow (DCF), est l’un des outils utilisés pour évaluer un actif de manière général, mais qui peut s’appliquer aux NDDs; Les revenus représentent les flux de trésorerie supplémentaires ou incrémentielle que le nom de domaine devrait générer au propriétaire sur la durée de son utilisation.

L’analyse DCF nécessite l’accès à des informations sur la circulation, les revenus et les coûts associés à l’entreprise. Pour utiliser cet outil d’évaluation puissant il doit être supposé que le nom de domaine génère des revenus issus de son trafic. La force de cette approche est qu’elle peut être appliquée à tout NDD indépendamment du fait que le site est actif ou non.
Le modèle d’affaires des revenus du trafic se concentre sur les noms de domaine générant des clics, via des liens d’annonceurs. Cela fonctionne donc si le pay-per-click (PPC) est connu pour un champ sémantique donnée. La disponibilité de cette information, en général publique, reste fiable sur des recherches de mots clés et revenus de publicité.
Ces avantages sont fondés sur les points suivants:

1. Le prix catalogue des annonces de vente médian est d’environ 400 euros alors que seul un petit nombre de ventes sont dans des ordres de grandeur supérieurs, allant jusqu’à dizaines de milliers d’euros. Du fait de ce seuil, les estimations produites seront moins fiables en raison de la rareté des données.

2. Pour un niveau spécifique de trafic, l’extension des recettes sur d’autres extensions restent pertinent, combiné avec d’autres facteurs constants. Toutefois, les données des ventes suggère que les .com commandent toujours le trafic, même après ajustement pour la composition de mot-clé.

3. Seule une petite fraction des noms de domaine vendus on un trait d’union. Ils sont sous-évalués dans le modèle statistique.

Toutefois: Les prix historiques du marché, en particulier ceux issus de ventes aux enchères, souffrent d’un marché de l’offre et de la demande asynchrone, de sorte qu’avant la fin de l’enchère tout les acheteurs potentiels ne se sont pas manifestés. Le prix de vente peut donc ne pas refléter fidèlement la volonté de payer pour ce nom de domaine.

5. L’approche du revenu permet de prendre en compte plusieurs scénarios, comme le « meilleur des cas, » le « pire des cas », et le « cas standard ». Cette analyse donne une image plus intuitive de la gamme des valeurs de marché possibles.

1. Le regroupement de noms de domaine en dépôt-vente comparables sont fondés sur des données historiques mais implique des erreurs de classification considérable, en particulier dans des clusters n’ayant que quelques données sur les ventes.

2. Les courtiers ont tendance à conserver les informations liées à leur chiffre d’affaires. Cette diminution de transparence et de vérifiabilité des évaluations tend donc à réduire la fiabilité de ce critère.

En revanche, ni l’approche du marché, ni la technique DCF ne capte la valeur des options de flexibilité. Il y a aussi la composante marque-option qui peut être faussée en considérant l’action d’un cybersquatteur (généralement en contrefaçon de marque). En fait, même si un nom de domaine n’a pas de marque associée, aussi longtemps que ce nom de domaine peut être rattaché à une marque ou déposé comme marque, il possède une valeur plus élevée qu’un nom de domaine issus de termes génériques. Plus la valeur d’une marque augmente, de même plus augmente la valeur du nom de domaine associé. La bonne utilisation de ces critères peut ainsi permettre d’obtenir ne serait-ce qu’une fourchette de base de négociation lors d’un transfert.

La méthode d’évaluation longue (extraits) est traduite et adaptée de l’anglais – Src: domainmart.com

Internet en France à 20 ans !

17 Déc 2014, Posté par adminviedoc dans Digital

Internet en France: C’est un anniversaire que personne ne fête (pour l’instant), et pourtant !

Que d’eau est passée sous les ponts depuis l’avènement de ce réseau dans un hexagone pourtant pionnier mais aussi prisonnier de son minitel…
Ce dernier, avatar franco-français est passé depuis à la postérité, une nécessite car il fallait s’ouvrir au monde et utiliser le même protocole. Et non, malgré les qualités indéniables de ce système concentrant le meilleur de la quintessence du génie national, le reste du monde n’était pas prêt à l’adopter.
On sortait en effet aussi de l’échec du réseau expérimental Cyclades.

Internet en France: Les années 80
Internet était déjà présent avant 1985 uniquement au sein du milieu universitaire et certaines entreprises utilisaient le réseau Oléane, premier FAI professionnel enregistré en France. Or à partir de 1994, les choses bougent très vite. French Data Network, Altern se voient éclipsés par des premiers services de fourniture d’accès à Internet lancés en juin 1994 par FranceNet et WorldNet. Puis suivent les FAI Calvacom, Club Internet, Internet-Way, Imaginet, Wanadoo et AOL.

WorldNet est sans doute la première success-story de cette époque pionnière. Elle se lance à partir d’un seul point d’accès à Paris, puis début 1996 sur 10 points d’accès sur le territoire français un enfin un numéro d’accès national (pour des débits allant de 14.400 bps à 28.800 bps). Une opération marketing efficace avec comme partenaires les revue d’informatique feront que des millions de kits de connexion sont distribués sous forme de disquette ou CD-ROM. Microsoft ira jusqu’à l’intégrer dans son système Windows apportant encore une manne supplémentaire d’abonnés à l’opérateur. Ils furent les premiers à offrir des pages personnelles et l’E-fax, avant de se voir rachetés en 2000 par Kaptech. Plus tard, Xavier Niel, l’un des contributeurs, fondera Free.

Internet en France, la suite: Les années 90
Club-Internet est crée en 1995 par Fabrice Sergent (filiale de Grolier Interactive Europe, groupe Lagardère). Il fut racheté en 2007 par Neuf Cegetel.
Le futur géant des FAI français n’apparait que fin 1995. A l’origine Wanadoo est le résultat de la régie publicitaire des annuaires de France métropolitaine confié à l’Office d’Annonces (ODA), filiale du groupe Havas. Avec division multimédia de France Télécom, le projet de portail Pages Jaunes Multimédia devient en Wanadoo. Une première offre d’accès à Internet arrive en mai 1996 et fort de l’appui du groupe France Télécom le succès est immédiat et en moins de 4 ans passe la barre du million d’abonnés. En juin 2006, la marque Wanadoo est remplacée par Orange, marque commerciale du groupe France Telecom pour les activités de téléphonie mobile et d’Internet.
A l’aube des années 2000 les grandes manoeuvres commencent pour ces opérateurs historiques avec une succession de rachats par des opérateurs nationaux et internationaux notamment pour tenter de conforter leur place ou conquérir l’hexagone : Calvacom est racheté par PSINet en 1997, Internet-Way par UUNet (Verizon) l’année suivante, puis Imaginet par Colt en 2000, Club-Internet par T-Online (Deutsch Telekom), FranceNet par British Telecom, WolrdNet par Kaptech (Neuf Telecom)…

Internet en France: Les années 2000
Aujourd’hui le marché est mature, comblé, et bipolaire, partagé entre cinq grands opérateurs: Orange, Bouygues Telecom, Free, Neuf/SFR, et Numericable, et une cohorte de « petits » opérateurs souvent tributaires des premiers pour leur réseau ou très spécialisé (comme pour la fibre optique). Citons par exemple :

FDN (French Data Network), Micso, NordNet (filiale d’Orange), RNIS, French Data Network (FDN), xDSL, Connexion Verte, Alice, Budget Telecom, Teleconnect, Ilico (Corrèze), Quantic Télécom, Nerim, DartyBox, range
OVH, Prixtel, Wibox, Calixo (filiale de Vialis), Cityplay, Régivision, UEM (Metz), FTTH, K-NET, fibreo (filiale de numéo), Adeli, Kiwi-Fibre, Wimifi, Vivéole, numéo, Sat2way, Société du haut débit (SHD -fliale SFR),
broadsat, IPcopter, LibertySat, skyDSL, als@tis, Infosat, kiwi1, E-téra, Luxinet, Ozone (filiale de SFR), Ozone (filiale Nomotech), WiMAX, Altinet, IFW (filiale Free), WizeO, Bolloré Télécom, AirMAX, Infosat Télécom…

Le site de Viedoc fait peau neuve !

19 Nov 2014, Posté par D. Bocquelet dans Digital, Société

Pour fêter nos 10 ans d’existence, rien de tel qu’un site tout neuf !
Notre site vient en effet de bénéficier d’une cure de jouvence et présente de nouvelles sections, menus et présentations.
Un style plus dynamique, plus visuel et plus direct, en phase avec notre époque… et à la hauteur de notre ambition.
Nous espérons que vous aurez autant de plaisir à parcourir le nouveau site viedoc.fr que nous en avons eu à le concevoir pour vous.

N’hésitez pas à nous laisser vos commentaires.

L’équipe VIEDOC