Technologie web Tag

Méthodologie d’évaluation d’un nom de domaine

08 Jan 2015, Posté par D. Bocquelet dans Digital

Après une demande de transfert de nom de domaine assortie d’une proposition financière, nous nous sommes plongés dans les affres de l’évaluation monétaire d’un nom de domaine. Nous espérons que cela soit utile à qui sera confronté à ce problème.

Avant toute chose, il faut définir la valeur d’un nom de domaine dans l’absolu.

  • Un nom de domaine fraîchement acheté à une valeur basique définie par les frais administratifs de l’ICANN en fonction du TLD, et des marges prises par les revendeurs et hébergeurs (1&1, ovh, gandi, etc…). En général ce prix s’établit sous la barre des 10 euros…
  • A cette valeur d’achat initiale ils faut ajouter une valeur sémantique établie en fonction de la concurrence
  • Un nom de domaine ancien prends une valeur qu’il faut modérer en fonction du référencement qui a été pratiqué

Pour ce qui concerne les noms de domaine anciens, ils acquièrent un maximum de valeur si :
-Le champ sémantique du site correspond au champ sémantique du nom de domaine
-Le site est resté le même sur une longue période (pas racheté, revendu, refait avec autre contenu…)
-Le référencement est « propre » (au yeux de google). Avant -à l’inverse- d’effectuer un achat, c’est une chose à rappeler…

Un nom de domaine peut créer de la valeur pour son propriétaire en générant des gains liés à l’activité du site s’il est actif. La valeur ajoutée d’un site peut se mesurer à l’aune des investissements (en temps et en valeur fiduciaire) qui ont été faits pour son référencement, mais aussi via des revenus financiers induits, construits sur une popularité et une démarche volontaire (dons et revenus publicitaires type adsense).
Par ailleurs, même si le nom de domaine n’est pas relié à un site Web actif, il peut encore générer des revenus indirects, résultants d’économies de coûts associés à la prévention un cybersquatteur ou concurrent de s’emparer du nom de domaine et des potentialités sémantiques associées.

La propriété d’un nom de domaine confère au propriétaire avec deux types de droits:
Le premier est lié à la flexibilité managériale, puisque le choix lui appartient de développer le site Web associé, ou de capitaliser le nom de domaine pour une période ultérieure. Le second droit est associé au pouvoir des marques. Si le nom de domaine est liés à une marque, le propriétaire reçoit en sus le droit à la protection juridique de cette dernière, qui protège le ou les noms de domaines associés. Le/la propriétaire peut ainsi empêcher quiconque de revendiquer le nom de domaine, si il/elle souhaite exercer ce droit. Les options disponibles pour le propriétaire de la marque varient depuis une action en justice de plein droit pour obtenir l’us d’une nom de domaine, et pleine latitude pour acheter le nom de domaine. Ainsi la valeur du nom de domaine est la résultante des bénéfices attendus et des options générées, souplesse de gestion et bénéfices liés aux marques.

Voici les différentes méthodes que nous avons testé:

Les sites d’évaluation gratuits :
-siteprice.org
-estibot.com
-valuate.com
-siteworthchecker.org
-instica.com
-domainindex.com
-domainvaluecongland.com
-valuegator.net
-urlrate.com
-godaddy.com
-dnsaleprice.com*
-valuemydomain.name
*estimation en fonction du prix de vente de domaines approchants

Utiliser ce type d’évaluation gratuite reste extrêmement problématique.
1-La variabilité des résultats en font une option peu convaincante. Nous avons ainsi pour le même nom de domaine, eu une évaluation supérieure à 10,000 euros, et une autre à 0 euro, la plupart se situant entre 30 et 500 euros.

2-La base d’évaluation reste le plus souvent très superficielle du fait de l’automatisation du process. Sont pris en compte des critères externes mesurables, présents sur le net (ex. audits alexa, etc…) qui se basent sur la popularité (nombre de liens) mais n’examinent à aucun moment leur qualité, l’estimation du trafic SEO à un instant T, l’E-réputation ou le ranking (mentions obtenus sur la requête du NDD), entre autres.

3-D’autres sites proposent une évaluation semi-automatique nécéssitant de disposer déjà de données (traffic, âge, cible, etc). C’est une méthode plus fiable mais plus chronophage.

4-Certains sites ne proposent aucune données sous un certain niveau de trafic (-100 visites/jour par exemple).

5-Certains sites n’envoient les résultats qu’après avoir soumis une adresse mail, qui sera ensuite revendue aux spammeurs et publicitaires de tout poil…

Toutefois, faut de mieux et de temps, une soumission « à la louche » sur ces sites, assorti ensuite d’un calcul moyen permet d’avoir un premier chiffre grossier, qu’il conviendra de préciser en fonction d’autres critères, que l’on peut retrouver (en partie) plus bas.

– La première constatation d’évidence est celle-ci: Un nom de domaine ne vaut rien si personne n’est prêt à l’acheter. S’il est trop éloigné de champs sémantiques intéressants et concurrentiels ou de marques connues, sa valeur diminue d’autant. S’il est court, il aura d’autant plus de valeur. Le SEO a changé, et s’il est intéressant de cultiver les « longue traînes » dans les URL et le contenu interne d’un site, il ne sert plus à rien de disposer d’un nom de domaine également en « longue traîne », Google se basant sur d’autres critères pour évaluer la valeur d’un site. Ce choix repose alors sur une approche marketing.

Quelques pistes toutefois: Le trafic d’un site acquiers de la valeur si le repreneur du nom de domaine compte rester sur cette même thématique. C’est pour cela que les « parkings » de noms de domaine créent un faux site ultra-optimisé dans la même sémantique pour conserver sa valeur SEO autant que faire ce peut. Leur popularité externe ne diminue pas forcément même si le contenu change, du fait de l’immobilisme le plus souvent des pages pointant vers lui. Courant sont en effet les sites ayant des webmasters à l’affût de liens brisés à partir de statistiques, mais bien moins sont ceux qui effectivement suivent les liens pour contrôler la permanence du site, bien que faire un lien sortant vers un site de mauvaise qualité pour google n’apporte rien. Donc même parqués pour des années, bien des sites conservent ce capital de liens.

La méthode d’évaluation longue:

Comme l’a reconnu l’USPAP, il existe trois méthodes généralement admises pour estimer la valeur de tous les actifs:
1-L’approche du marché, destinée à refléter les prix comparatifs du marché;
2-La méthode du revenu destinée à refléter la valeur économique de l’actif;
3-La méthode du coût, qui vise à refléter les caractéristiques d’utilité de l’actif.
Ces approches s’appliquent aux actifs incorporels et aux propriétés intellectuelles, ainsi qu’aux biens corporels.

Chaque méthode d’évaluation met l’accent sur un attribut du nom de domaine. En utilisant ces trois méthodes on peut augmenter la valeur de confiance quand à l’analyse finale. Néanmoins, des valorisations faibles résultent de l’utilisation naïve de ces trois approches. Or c’est souvent l’information disponible pour l’évaluation qui doit déterminer l’approche utilisée.

L’approche du marché examine les caractéristiques comparatives de biens raisonnablement compétitifs. Avec suffisamment de données transactionnelles axées sur le marché à partir de laquelle estimer un nom de domaine comparable, on dispose d’un instrument relativement fiable d’emblée. Dès lors que le nom de domaine à examiner s’éloigne de la compétition, la méthode d’approche du marché s’affaiblit.

L’approche du revenu repose sur le flux de trésorerie que le nom de domaine devrait générer sur sa durée. Cette approche nécessite une estimation raisonnable des flux de trésorerie futurs et leur risque. Ainsi, la qualité de l’évaluation dépend de l’exactitude des estimations utilisées dans le modèle d’évaluation.

La méthode du coût regarde le de reproduction ou de remplacement d’un atout. Cette approche ne est pas appropriée pour les noms de domaine et des actifs incorporels, puisque le coût pour remplacer un tel actif est rarement le reflet de sa valeur, sauf à sa création.

L’approche de marché du nom de domaine pour son l’évaluation tient la fois d’un art et d’une science. L’art provient de la connaissance et de l’expérience pris en compte dans la compréhension des facteurs influant sur la valeur d’un nom de domaine, tandis que l’approche scientifique implique des techniques statistiques pour quantifier l’importance de ces facteurs.

Par exemple, en comparant plusieurs TLDs (extensions) d’un nom de domaine .net/.com/.biz on peut être plus facilement en mesure d’évaluer toute extension. Toutefois dans la réalité la tarification des extensions de noms de domaine se heurtent à deux obstacles majeurs: Pas suffisamment de noms de domaine avec des extensions différentes pour effectuer un ratio fiable, et la relation de prix entre ces différentes extensions peuvent ne pas être un multiple constant vis à vis des unes et des autres.
On peut en revanche utiliser des techniques statistiques pour prédire le prix de noms de domaine comparables fondés sur une base de données fiable des prix de domaine. Un modèle statistique de prédiction est donc bienvenu, et une condition préalable pour effectuer toute évaluation significative.

Les modèles statistiques utilisent la relation entre ces facteurs et les prix des noms de domaine vendus, pour déterminer le prix d’un nom de domaine donné à un moment précis dans le temps. Ces modèles fournissent une méthode « scientifique » pour estimer la valeur d’un NDD sur la base de comparaison.

Les techniques traditionnelles de régression linéaire ne donnent pas de résultats satisfaisants, du fait que la relation entre les prix du marché et les extensions sont plus susceptibles d’être non linéaires. Ces « variables muettes » pour chaque extension ne donnent pas des résultats significatifs. En outre, parce que le marché du nom de domaine est relativement nouveau et pas encore très actif, des techniques statistiques plus solides sont nécessaires.

A la base du modèle statistique se trouvent un ensemble de critères en fonction de la demande de noms de domaine et les prix historiques pratiqués des noms vendus. Le modèle estimé donne le meilleur rapport entre les critères et la valeur spécifiée. Cette relation est utilisée pour prédire le prix de ne importe quel nom de domaine. Il y a environ 10-12 de ces critères quantifiables, comprenant le nombre de requêtes sur Google pour le mot clé incorporé inclus dans le NDD. Ces critères ne prennent pas directement en compte la contribution d’une marque à la valeur d’évaluation, car elle nécessite de nombreux calculs et des données spécifiques à la collection des domaines liés à la marque.

Concernant les base de données d’évaluation pour estimer le modèle prédictif de la valeur, les prix de transaction prélevés dans des ventes aux enchères publiques, les prix des NDD mise sous séquestre et les données d’enchères scellées peuvent être pris en compte. Pour chacune des variables de prédiction, les données sont collectées à partir de sources accessibles au public au moment de la vente.


L’approche du revenu est généralement utilisée pour prédire le bénéfice potentiel de référence d’un site web dans l’évaluation des sites Web actifs et les noms de domaine liés à des marques. Cette approche par le résultat d’une évaluation, ou Discounted Cash Flow (DCF), est l’un des outils utilisés pour évaluer un actif de manière général, mais qui peut s’appliquer aux NDDs; Les revenus représentent les flux de trésorerie supplémentaires ou incrémentielle que le nom de domaine devrait générer au propriétaire sur la durée de son utilisation.

L’analyse DCF nécessite l’accès à des informations sur la circulation, les revenus et les coûts associés à l’entreprise. Pour utiliser cet outil d’évaluation puissant il doit être supposé que le nom de domaine génère des revenus issus de son trafic. La force de cette approche est qu’elle peut être appliquée à tout NDD indépendamment du fait que le site est actif ou non.
Le modèle d’affaires des revenus du trafic se concentre sur les noms de domaine générant des clics, via des liens d’annonceurs. Cela fonctionne donc si le pay-per-click (PPC) est connu pour un champ sémantique donnée. La disponibilité de cette information, en général publique, reste fiable sur des recherches de mots clés et revenus de publicité.
Ces avantages sont fondés sur les points suivants:

1. Le prix catalogue des annonces de vente médian est d’environ 400 euros alors que seul un petit nombre de ventes sont dans des ordres de grandeur supérieurs, allant jusqu’à dizaines de milliers d’euros. Du fait de ce seuil, les estimations produites seront moins fiables en raison de la rareté des données.

2. Pour un niveau spécifique de trafic, l’extension des recettes sur d’autres extensions restent pertinent, combiné avec d’autres facteurs constants. Toutefois, les données des ventes suggère que les .com commandent toujours le trafic, même après ajustement pour la composition de mot-clé.

3. Seule une petite fraction des noms de domaine vendus on un trait d’union. Ils sont sous-évalués dans le modèle statistique.

Toutefois: Les prix historiques du marché, en particulier ceux issus de ventes aux enchères, souffrent d’un marché de l’offre et de la demande asynchrone, de sorte qu’avant la fin de l’enchère tout les acheteurs potentiels ne se sont pas manifestés. Le prix de vente peut donc ne pas refléter fidèlement la volonté de payer pour ce nom de domaine.

5. L’approche du revenu permet de prendre en compte plusieurs scénarios, comme le « meilleur des cas, » le « pire des cas », et le « cas standard ». Cette analyse donne une image plus intuitive de la gamme des valeurs de marché possibles.

1. Le regroupement de noms de domaine en dépôt-vente comparables sont fondés sur des données historiques mais implique des erreurs de classification considérable, en particulier dans des clusters n’ayant que quelques données sur les ventes.

2. Les courtiers ont tendance à conserver les informations liées à leur chiffre d’affaires. Cette diminution de transparence et de vérifiabilité des évaluations tend donc à réduire la fiabilité de ce critère.

En revanche, ni l’approche du marché, ni la technique DCF ne capte la valeur des options de flexibilité. Il y a aussi la composante marque-option qui peut être faussée en considérant l’action d’un cybersquatteur (généralement en contrefaçon de marque). En fait, même si un nom de domaine n’a pas de marque associée, aussi longtemps que ce nom de domaine peut être rattaché à une marque ou déposé comme marque, il possède une valeur plus élevée qu’un nom de domaine issus de termes génériques. Plus la valeur d’une marque augmente, de même plus augmente la valeur du nom de domaine associé. La bonne utilisation de ces critères peut ainsi permettre d’obtenir ne serait-ce qu’une fourchette de base de négociation lors d’un transfert.

La méthode d’évaluation longue (extraits) est traduite et adaptée de l’anglais – Src: domainmart.com

Internet en France à 20 ans !

17 Déc 2014, Posté par adminviedoc dans Digital

Internet en France: C’est un anniversaire que personne ne fête (pour l’instant), et pourtant !

Que d’eau est passée sous les ponts depuis l’avènement de ce réseau dans un hexagone pourtant pionnier mais aussi prisonnier de son minitel…
Ce dernier, avatar franco-français est passé depuis à la postérité, une nécessite car il fallait s’ouvrir au monde et utiliser le même protocole. Et non, malgré les qualités indéniables de ce système concentrant le meilleur de la quintessence du génie national, le reste du monde n’était pas prêt à l’adopter.
On sortait en effet aussi de l’échec du réseau expérimental Cyclades.

Internet en France: Les années 80
Internet était déjà présent avant 1985 uniquement au sein du milieu universitaire et certaines entreprises utilisaient le réseau Oléane, premier FAI professionnel enregistré en France. Or à partir de 1994, les choses bougent très vite. French Data Network, Altern se voient éclipsés par des premiers services de fourniture d’accès à Internet lancés en juin 1994 par FranceNet et WorldNet. Puis suivent les FAI Calvacom, Club Internet, Internet-Way, Imaginet, Wanadoo et AOL.

WorldNet est sans doute la première success-story de cette époque pionnière. Elle se lance à partir d’un seul point d’accès à Paris, puis début 1996 sur 10 points d’accès sur le territoire français un enfin un numéro d’accès national (pour des débits allant de 14.400 bps à 28.800 bps). Une opération marketing efficace avec comme partenaires les revue d’informatique feront que des millions de kits de connexion sont distribués sous forme de disquette ou CD-ROM. Microsoft ira jusqu’à l’intégrer dans son système Windows apportant encore une manne supplémentaire d’abonnés à l’opérateur. Ils furent les premiers à offrir des pages personnelles et l’E-fax, avant de se voir rachetés en 2000 par Kaptech. Plus tard, Xavier Niel, l’un des contributeurs, fondera Free.

Internet en France, la suite: Les années 90
Club-Internet est crée en 1995 par Fabrice Sergent (filiale de Grolier Interactive Europe, groupe Lagardère). Il fut racheté en 2007 par Neuf Cegetel.
Le futur géant des FAI français n’apparait que fin 1995. A l’origine Wanadoo est le résultat de la régie publicitaire des annuaires de France métropolitaine confié à l’Office d’Annonces (ODA), filiale du groupe Havas. Avec division multimédia de France Télécom, le projet de portail Pages Jaunes Multimédia devient en Wanadoo. Une première offre d’accès à Internet arrive en mai 1996 et fort de l’appui du groupe France Télécom le succès est immédiat et en moins de 4 ans passe la barre du million d’abonnés. En juin 2006, la marque Wanadoo est remplacée par Orange, marque commerciale du groupe France Telecom pour les activités de téléphonie mobile et d’Internet.
A l’aube des années 2000 les grandes manoeuvres commencent pour ces opérateurs historiques avec une succession de rachats par des opérateurs nationaux et internationaux notamment pour tenter de conforter leur place ou conquérir l’hexagone : Calvacom est racheté par PSINet en 1997, Internet-Way par UUNet (Verizon) l’année suivante, puis Imaginet par Colt en 2000, Club-Internet par T-Online (Deutsch Telekom), FranceNet par British Telecom, WolrdNet par Kaptech (Neuf Telecom)…

Internet en France: Les années 2000
Aujourd’hui le marché est mature, comblé, et bipolaire, partagé entre cinq grands opérateurs: Orange, Bouygues Telecom, Free, Neuf/SFR, et Numericable, et une cohorte de « petits » opérateurs souvent tributaires des premiers pour leur réseau ou très spécialisé (comme pour la fibre optique). Citons par exemple :

FDN (French Data Network), Micso, NordNet (filiale d’Orange), RNIS, French Data Network (FDN), xDSL, Connexion Verte, Alice, Budget Telecom, Teleconnect, Ilico (Corrèze), Quantic Télécom, Nerim, DartyBox, range
OVH, Prixtel, Wibox, Calixo (filiale de Vialis), Cityplay, Régivision, UEM (Metz), FTTH, K-NET, fibreo (filiale de numéo), Adeli, Kiwi-Fibre, Wimifi, Vivéole, numéo, Sat2way, Société du haut débit (SHD -fliale SFR),
broadsat, IPcopter, LibertySat, skyDSL, als@tis, Infosat, kiwi1, E-téra, Luxinet, Ozone (filiale de SFR), Ozone (filiale Nomotech), WiMAX, Altinet, IFW (filiale Free), WizeO, Bolloré Télécom, AirMAX, Infosat Télécom…

Les atouts référencement pour 2015

04 Sep 2014, Posté par adminviedoc dans Digital

Avec la nouvelle donne provoquée par l’introduction du nouvel algorithme Hummingbird, on a assisté à un « coup de torchon » magistral sur les pratiques « black hat », à commencer par une dépréciation massive et sans appel des liens « de faible qualité ». Cela donne paradoxalement une nouvelle motivation aux pirates du web, prêts à effectuer du NSEO envers le site d’un concurrent en utilisant pour cela un des nombreux sites « 1000 liens automatiques » qui survivent encore quelque part sur la toile. La notion d’authorship a été grandement appréciée, ce qui force les bloggeurs à rechercher des liens venant de sites d’autorité eux-mêmes, ou en faisant du « push » pour en obtenir de manière apparemment « naturelle ». La complexité derrière cette appréciation reste l’un des secrets de l’algorithme et a été certainement été une question plus complexe à traiter que d’autres aspects techniques. Enfin, troisième volet, la prééminence renforcée du contenu. Cela s’est accompagné par un net gain du « not provided » interdisant aux référenceurs de jauger de l’efficacité de leurs mots-clés sur Google analytics. Sans aller jusqu’à dire que le « SEO est mort », vieille rengaine peu crédible, on se concentrera donc sur l’essentiel une fois encore.

Sans surprise en effet, Google poursuit sa traque des fraudeurs du web, des techniques « limites » dont la frontière, grise, devient de plus en plus floue et recule de manière drastique selon tous les indicateurs provenant de la communauté SEO. Les bases du SEO ne changent en effet pas vraiment. Il s’agit de s’adapter rapidement aux nouvelles règles tout en conservant les anciennes « sans risque ». En ayant conscience que les enjeux n’ont fait que se renforcer, que la visibilité et le taux de conversion sont toujours plus difficiles à obtenir car pour le monde du commerce, la présence sur le web n’est plus une exception mais la règle, et surveiller la concurrence est plus que jamais au centre de ces efforts.

Linking : Le grand ménage. En effet, sans surprise, les sites ayant usé et abusé des « liens faciles » ont perdu des places. De nombreuses places, compensée par ailleurs par leur présence sur les réseaux sociaux, authorship, et le poids de leurs liens de qualité quand ils en avaient. 2014 Aura donc été l’occasion de faire un « ménage du printemps » et de revoir éventuellement la possible sur-optimisation des « bons liens ».

Du Contenu, du contenu, du contenu… Rien de bien nouveau sous le soleil. La tendance s’est confirmée. On doit désormais considérer comme l’optimisation pour les robots secondaires, et en revenir à des principes marketing terre à terre. Le ciblage doit être juste et le contenu calibré pour arriver au meilleur taux de conversion possible. Le relai sur les réseaux sociaux, là encore bien choisis selon la cible, avec une stratégie adaptée pour chacun, est là encore primordiale. Enfin, un contenu qui ne sera pas figé, nécessairement, ce qui implique de disposer d’un blog sur lequel créer un contenu « utile » qui sera susceptible d’être repris et partagé. Ce dernier point aura l’avantage supplémentaire de renforcer l’authorship du site ou de l’auteur des contenus. Selon l’étude de Vocus, les dix premier résultats sont des pages à plus de 2000 mots. Ce n’est pas une règle absolue, mais il semble que les contenus plus importants sont favorisés, passant de 500 à 1000 mots par exemple. En outre les pages d’accueil interminables à scroller (donc riches sémantiquement, à dessein) sont une tendance confirmée en webdesign.

Les réseaux sociaux indispensables. Selon tous nos indicateurs, la tendance s’est confirmée, non seulement pour les grands comme facebook ou twitter, mais aussi pour google+ qui se taille désormais une part du lion grâce aux croisements avec d’autres services comme google adwords et de la place privilégiée que Google fait à ses contenus sociaux relayés/partagés sur la toile.

Google+ en effet selon MOZ, a estimé que les posts partagés et reliés à un compte personnel renforçaient l’authorship et améliore le classement des contenus dans les résultats de recherche. Il semble aussi y avoir une corrélation assez nette entre les « +1 » affichés dans les mêmes SERPs provenant de ses cercles de connaissance proches, là encore apportant une crédibilité à l’authorship.

Il faut également penser toujours et plus encore en termes de diversité, en étant présent (là encore en communicant en fonction de sa cible), sur Instagram, Pinterest, ou les sites de vidéos Vimeo ou Vine. L’efficacité de cette présence doit être de plus en plus sérieusement prise en compte et l’est, indiscutablement pour Google.

Une présence sur mobile qui devient incontournable
Votre site n’est pas encore responsive ? Grossière erreur ! En effet tous nos indicateurs montrent que la part du trafic web concernant les mobiles a progressé de manière drastique entre 2013 et 2014. Les mobiles doivent êtres pris en considération comme un « web nomade » dont l’usage -au travail comme en loisirs- est devenu un réflexe. Qu’est ce qu’un design responsive ? Tout simplement la possibilité pour un site web de changer d’apparence en fonction de la taille de l’écran des utilisateurs et donc d’optimiser la lecture (donc réduire le taux de rebond et accroître le bénéfice de l’expérience utilisateur »). A ce titre la part des tablettes (pour qui un design web standard non-responsive ne pose pas trop de problèmes) recule au profit des mobiles, profitant de ventes dopées sur les samsung S3/4/mini et autres I-phones. Edit: Concernant les atouts référencement pour 2015, Google enfonce le clou sur la responsivité avec un nouvel algorithme dédié lancé le 21 avril 2015.

Comment ça marche concrètement ?

Typiquement une page d’accueil de blog « responsive » par exemple verra les onglets de son menu êtres disponibles en un menu déroulant tandis que vos actualités en 3-4 colonnes passeront en une seule colonne.

Il serait donc judicieux de:

  1. Vérifier comment d’affiche votre site web sur un mobile
  2. Envisager le cas échéant de le refaire complètement. Si c’est un CMS, prenez un nouveau template responsive.
  3. Eventuellement faire une version séparée, adaptée pour mobiles avec redirection automatique.
  4. Prenez aussi en compte la recherche vocale sur mobile.

ADWORDS évolue et est rendu plus indispensable.

Pour qui doute encore du « bien-fondé » d’investir dans le service publicitaire de google, quelques indications. Premièrement, outre le bénéfice d’une présence « premium » dans les SERPs, les bandeaux contextuels. Ensuite, les fameux « not provided » disparaissent comme par enchantement…

Parmi les nouveautés 2014, on citera :

Des annonces mieux ciblées. Le 22 juillet 2013, les campagnes universelles de Google Adwords ont vu un changement d’interface de l’apparition de nouveaux outils les internautes en fonction de leur localisation et horaires de leur requête. « Bid by distance » permet par exemple de jouer sur une enchère sur un mot-clé en relation avec la distance qui le sépare physiquement d’un point de vente. Les magasins peuvent dont être plus visibles dans leur propre zone de chalandise et diminuer leurs enchères après leurs heures de fermeture.

Un accroissement de l’intérêt des « informations utiles » pour les internautes au détriment du contenu avec les liens annexes du site sous le texte de l’annonce renvoyant sur les tarifs, coordonnées, contact, en général pages peu optimisées… Mais aussi  l’apparition du « click-to-call » sur mobile, l’itinéraire google maps géolocalisé, l’ajout d’images dans l’annonce google ads ou encore la collecte des adresses E-mail opt-in.

Des liens sponsorisés « responsive » changeant selon le média impliqué (mobile, PC ou tablette) avec une dépréciation en fonction de ce dernier. Notons que Google à tout fait pour pousser les propriétaires de sites à proposer une seule et unique version responsive de leur site web, ce qui rend un clair distinguo des résultats entre les deux versions éventuelles plus difficile. Selon Vincent de Mellon cela devrait avoir un impact sur le coût total de la campagne, avec une uniformisation des prix vers le haut car le CPC n’est plus relié à un média particulier.

Drupal contre Joomla contre WordPress

05 Juin 2014, Posté par D. Bocquelet dans Digital

C’est le match du siècle en matière de CMS !

Les plus utilisés au monde, cette troika de poids est responsable à elle seule de la publication d’une portion conséquente du contenu internet mondial. Ils ont pourtant chacun leurs avantages et leurs points faibles, que nous allons les voir ici :

Drupal

Drupal fait figure d’ancêtre parmi le trio – il est sorti au début de 2001. Comme WordPress et Joomla, il est open-source et basé sur PHP-MySQL. Drupal est extrêmement puissant et développeur-friendly, ce qui a fait un choix populaire pour ajouter des fonctionnalités, implémenter et gérer du Rich data, des contenus riches et intensifs en toute sécurité et stabilité comme sur certains sites gouvernementaux.

Avantages de Drupal :

  1. Extrêmement flexible: Vous voulez un blog simple avec une page de couverture statique? Drupal peut le faire. Vous voulez un backend puissant qui peut supporter des centaines de milliers de pages et des millions d’utilisateurs chaque mois? Bien sûr, Drupal peut le faire également fort bien. Le logiciel est puissant et flexible – pas étonnant qu’il soit le favori parmi les développeurs.
  2. Developer-friendly: L’installation de base de Drupal est assez dépouillée. Les développeurs sont encouragés à créer leurs propres solutions. Bien que cela ne le rend pas très sympathique pour les utilisateurs non professionnels, il promet une grande gamme de possibilités pour les développeurs.
  3. Bon en SEO: Drupal a été conçu dès le départ pour être Google-friendly.
  4. Enterprise-friendly: Fort contrôle de la version et capacités ACL puissantes qui font Drupal le CMS de choix pour des sites d’entreprises. Le logiciel peut gérer des centaines de milliers de pages de contenu avec facilité.
  5. Stabilité: Drupal peut être étendu rapidement sans effort et est stable même au moment de servir des milliers d’utilisateurs simultanément.

Inconvénients de Drupal:

  1. Courbe d’apprentissage ardue. Passer de WordPress à Drupal peut donner l’impression de passer de sa voiture au cockpit d’un Boeing 747 – tout est assez compliqué. Sauf si on possède des capacités de codage solides et que l’on aime lire une documentation technique généreuse, on peut trouver Drupal extrêmement difficile à utiliser en usage régulier.
  2. Manque de Thèmes: Une installation Drupal sans base de données de démo préalable ressemble au désert de Gobi. Le manque de thèmes n’améliore rien. Vous aurez à trouver un bon designer, si vous voulez que votre site soit plus intérressant à regarder qu’une triste relique datant de 2002 lors de sa première version.

Bilan: L’utilisation Drupal est recommandée pour les entreprises ayant des besoins spécifiques et un spécialiste développeur sous la main. Il est recommandé pour les grands projets où la stabilité, l’évolutivité et la puissance priment sur la facilité d’utilisation et l’esthétique.

Joomla:

Joomla est un logiciel de gestion de contenu open-source, et Forks de Mambo. Il est l’une des solutions CMS les plus populaires dans le monde et compte le plus de téléchargements à ce jour.

Joomla propulse des célébrités du web comme Cloud.com, Linux.com, etc.

Avantages de Joomla

  1. Convivial: Joomla n’est pas WordPress, mais il est encore relativement facile à utiliser. Ceux qui débutent à l’édition web trouveront son interface polie, souple et puissante, mais il reste encore une légère courbe d’apprentissage pour bien la maîtriser.
  2. Forte communauté de développeurs: Comme WordPress, Joomla possède aussi une communauté dynamique et active.
  3. Riche en Plugins: La bibliothèque de plug-in (appelée «extensions» dans Joomla) est imposante, avec de très nombreux libres et en open source.
  4. Variabilité d’extension: Les extensions Joomla sont divisées en cinq catégories – composants, plugins, templates, modules et langues. Chacun diffère pour ses fonctions, sa puissance et sa capacité. Les composants, par exemple, fonctionnent comme des «mini-applications» qui peuvent changer l’installation de Joomla. Les Modules, d’autre part, peuvent ajouter des capacités mineures comme contenu dynamique, des flux RSS, et la fonction de recherche sur une page web.
  5. Puissantes capacités de gestion de contenu: Contrairement à WordPress, Joomla a été initialement conçu comme un CMS d’entreprise. Cela le rend beaucoup plus apte à gérer un volume important d’articles que WordPress.

Inconvénients de Joomla

  1. Une courbe d’apprentissage est bien présente: Vous ne pouvez pas passer d’une installation de Joomla à votre premier contenu sans être déjà familier avec le logiciel. La courbe d’apprentissage n’est pas trop raide, mais elle peut l’être assez pour intimider les utilisateurs occasionnels.
  2. Un manque de capacités SEO: De base, mais cela peut être compensé en partie par l’installation des bons plugins. On aura quand même besoin de beaucoup de travail pour obtenir les meilleures performances SEO. Sauf si vous avez le budget pour embaucher un expert SEO, vous voudrez peut-être envisager des solutions alternatives.
  3. Gestion des droits limitée: En anglais ACL (Access Control List),  autorisations qui peuvent être accordées à des utilisateurs spécifiques pour des pages spécifiques. C’est une composante essentielle de toute solution CMS de classe entreprise, multi-users et utilisable comme un portail avec des abonnés et clients. Joomla ne s’y est mis qu’avec la version 1.6. Le système est déjà plus mature avec la version 3.

Bilan: L’utilisation de Joomla est recommandée pour construire un site avec plus de stabilité structurelle et un contenu plus riche que WordPress, mais disposant encore d’une interface assez intuitive. Si vous voulez un site web standard avec des fonctionnalités standards – un blog, un site avec front-office dynamique ou statique, un forum, etc. utilisez Joomla. Joomla est également une bonne option pour les magasins de commerce électronique. Pour une utilisation en entreprise plus exigeante, pensez à Drupal.

WordPress:

Le New York Times, CNN, Forbes et Reuters – la liste des utilisateurs de WordPress.com se lit comme la dream-team des journeaux en ligne. Plus de 68 millions de sites Web utilisent WordPress, ce qui en fait un logiciel de blogging le plus populaire au monde. Il est suffisamment souple pour pouvoir propulser de puissants blogs d’entreprise avec 500 news/jour comme de petits journaux personnels sporadiquement mis à jour.

Avantages de WordPress

  1. Multiples Auteurs: WordPress a été construit de base pour accueillir plusieurs auteurs – un élément crucial pour toute portail de publication à dimension communautaire.
  2. Grande librairie de Plugins: WordPress se repose sur une des communauté de développeurs open-source les plus active au monde, qui a développé des centaines de milliers de plugins pour à peu près tout ce qui est concevable. Il n’ya pas grand chose que WordPress ne puisse pas faire.
  3. Convivial: Une interface indéniablement facile à utiliser et très intuitive, même pour des blogueurs débutants. Vous pouvez activer un thème, ajouter quelques plugins, et publier en quelques minutes.
  4. Excellentes Capacités SEO: De base, mais aussi avec des plugins comme All in One SEO, on peut commencer à bloguer sans se soucier de référencement sur la page et assez facilement soigner le côté technique (ex. sitemap, url rewriting…).
  5. Personnalisation facile: Le système de gestion des thèmes et plugins est bien conçu pour faciliter la personnalisation et l’évolution du site. N’importe qui avec un peu de connaissance HTML et CSS peut en outre personnaliser un thème WordPress pour s’adapter à ses besoins. De plus, la plupart des thèmes se gèrent sans toucher au code depuis le back office.
  6. Flexibilité: WordPress peut être utilisé pour faire pratiquement n’importe quoi – lancer une boutique e-commerce, héberger des vidéos, servir comme galerie ou CV en ligne, ou comme blog d’entreprise – grâce à des plugins et des thèmes personnalisés.

Inconvénients de WordPress

  1. Sécurité: Comme le logiciel leader de la catégorie avec des millions d’installations, WordPress est souvent la cible de pirates informatiques. L’architecture elle-même une fois installée reste « légère » sur ce point et vous devrez installer des plugins tiers pour renforcer la sécurité de votre installation (et contrer le spam !).
  2. Incompatibilité avec les anciens plugins: L’équipe WordPress publie continuellement de nouvelles mises à jour pour corriger les failles de sécurité et les problèmes de patches. Ces mises à jour sont souvent incompatibles avec les plugins âgées. Si votre site se fonde sur des plugins plus anciens, vous devrez peut-être attendre avant de mettre à jour (ce qui rend votre site d’autant plus sensibles aux attaques de pirates).
  3. Options limitées de personnalisation: Même si WordPress est personnalisable à l’infini, la plupart des installations de WordPress se ressemblent. Bien que ces dernières mises à jour et des améliorations dans plugins/thèmes ont redressé quelque peu ce problème, WordPress reste encore entravé par des options de conception assez limitées.
  4. Capacités limitées en gestion de contenu: WordPress a été initialement conçu comme une plate-forme de blogs. Cela a affecté sa capacité à gérer de grandes quantités de contenu. Si vous envisagez de publier des centaines de posts par semaine (pas rare pour de grands éditeurs), vous pouvez trouver le backend par défaut un peu décevant pour faire face à un tel volume.

WordPress est souvent appelé un «mini CMS. Il n’est pas aussi puissant ou performant comme Drupal ou Joomla, mais il est assez facile à utiliser pour n’importe quel utilisateur profane. Utiliser WordPress si vous souhaitez une solution simple, facile à utiliser pour du blogging avec des co-auteurs et des sites peu exigeants avec des mises à jour périodiques.

Conclusion:

Même si WordPress, Joomla et Drupal sont construits sur la même base de technologies open source, ils varient fortement en fonctionnalités, capacités et facilité de prise en main et de personnalisation. Ce post constitue un début de réponse, mais il est utile de recevoir un avis éclairé de professionnels du web et de webmasters qui auront expérimentés ces différentes solutions pour se faire un avis sur celle qui serait la mieux à même d’être utilisée pour son projet spécifique…