Technologie web Tag

L’optimisation SEO d’un site web passe par une multitude d’étapes et l’une d’elles est souvent négligée et apparait sur le long terme: Il s’agit du « cruft » que l’on pourrait vaguement traduire en Français par la « croûte ».
La définition anglophone donne: « badly designed, unnecessarily complicated, or unwanted code or software. »
Il s’agit en effet, comme pour la carène d’un navire qui aurait passé trop de temps en mer, d’une couche de choses mal gérées et pas forcément désirées ni forcément facile à voir mais qui vont à terme ralentir la vélocité du site dans les moteurs de recherche et impacter son SEO.
Il ne s’agit pas d’optimiser seulement le code et en corrélation la vitesse de chargement (pour minimiser le taux de rebond), mais de veiller à trouver toutes ces pages considérées par Google comme de « basse qualité », qui vont peser sur l’impression générale que donne votre site web à google.

Alléger le code des pages
Concernant l’optimisation du code en parlant du « cruft », il faut notamment lorsque c’est possible, supprimer tous les appels et javascripts liés à des fonctionnalités périmées et/ou désactivées, mais qui sont toujours là. Un peu comme un système d’exploitation poussif qui charge des centaines d’applications jamais utilisées en pratique (suivez mon regard). Ce travail nécéssite par exemple pour un CMS de supprimer les applications purement et simplement (non de les désactiver seulement), et lorsqu’un template est présent et même mis à jour, de faire le ménage dans le code parmi toutes les applications appelées, en s’aidant par exemple d’une application d’audit navigateur. Ce ménage peut alléger jusqu’à 50% et plus du code de toutes les pages, améliorant leurs performances serveur mais aussi SEO (meilleur ratio code/texte). C’est là que l’utilisation d’un site développé sur mesure devient intéressante car il n’y a pas de « couches multiples » (CMS de base + template + plugins). Le site peut être allégé à l’essentiel « en soufflerie ».

Alléger les appels
Typiquement deux types d’appels présents sur la plupart des sites méritent l’attention: Les appels CSS (style) et Javascript. Dans les deux cas, l’accumulation de plugins extérieurs finit par nuire à la rapidité d’éxécution des pages car ces différentes pages .css et .js (javascript) appelées localement (ou pire, extérieures au site! -bibliothèque boostrap, etc.) contiennent souvent des tartines de code qui ne vont pas s’appliquer aux contenus mais sont quand même crawlés et chargés. Il convient donc, par exemple en se servant de l’audit navigateur (mozilla et Google ont des plugins assez utiles pour cela) de déterminer les optimisations possibles. cela passe le plus souvent par la fusion de toutes les feuilles de styles de vos différentes applications en une seule, tout en se débarrassant des lignes non nécéssaires, qu’il s’agissent de version minifiées ou non. De même pour le javascript, l’ensemble des scripts peuvent être regroupés; Plus en aval, sur le header du site, beaucoup de scripts peuvent être supprimés et reportés uniquement sur les pages qui en ont besoin… (ex. page avec un carousel, un formulaire en java, un compteur, ect…).

Faire la chasse aux pages de basse qualité
L’exemple typique est ces pages ajoutées mécaniquement avec la création de catégories. Un court texte introductif/meta et des liens, voir rien du tout sinon un titre non optimisé sous une URL non-optimisée. Cela peut être aussi des pages de contenu « normales » qui n’ont pas fait l’objet d’un grand travail et qui ont reçu (et continuent de recevoir) des faibles visites et retour. Le taux de rebond et d’engagement global permet de les identifier assez rapidement. Quelques sacrifices sont préférables lorsqu’il s’agit de préférer la qualité à la quantité. Serait-il possible de regrouper ces différents articles sur une page unique mieux optimisée ? A voir, de même que le « recyclage »: Pourquoi ne pas tenter d’améliorer ces articles en même temps, rafraîchir les informations, puis de les relancer sur les réseaux sociaux avec une approche différente ?

Au final sachez que l’agorythme Panda (de Google) effectue une balance globale du site, pesant le nombre d’articles par rapport à leur réception… Mieux vaut lui présenter moins d’articles mais ayant objectivement un contenu plus intérressant, plus fouillé, complet, et avec un plus fort potentiel de réception/partage final.

Faire la chasse au duplicate content ou NDC
Le NDC pour « near-duplicate content » ou contenu quasi-dupliqué est une constante pour les gros CMS avc des fonctionnalités sous forme de tags, pages de recherches, catégories, etc. qui sont souvent générées par les robots et donc crawlées mais vides pour l’essentiel ou n’ayant que de rares liens. 90% et plus du contenu est donc identique aux pages générées de la même manière, générant en pratique du quasi duplicate content. A la longue ce genre de pages technique automatiquement créées finissent par s’acculmuler et impact l’ensemble du site par leur seule présence. Ces pages sont typiquement « sous la lighe de flottaison », difficiles à voir.

Comment les détecter ?
Les solutions passent par des logiciels d’audit comme Screaming Frog, Onpage.org, ou tout simplement Google Webmaster Tools croisé avec Google analytics; Filtrer par taux de rebond permet notamment de vite identifier ces pages, même si d’autres filtres sémantiques fonctionnent bien.

Comment ensuite les traiter ?
– Les exclure du fichier XML (sitemap) lorsqu’il est généré automatiquement ou manuellement périodiquement (via un logicel comme XML-generator)
– En cas de duplicate/near-duplicate faire une redirection canonique
– Lien 301 ou même 404 si ces pages n’apportent absolument rien au visiteur
– Noindex/Nofollow dans le fichier robots.txt

Bon nettoyage de rentrée !

Une petite révision ou mise au point sur les formats d’images pour le web:

Les formats print:
Fait pour l’impression, à convertir pour le web.
Classiques: Tiff, et BMP (Bitmap)
Et plus exotiques et/ou polyvalents: Dicom, DCX, Targa, PCX, Pixar, Scitex…
La résolution standard sur le web est 300 dpi (Dot per Inch) soit 300 pixels sur 2.54 cm.
La colorimétrie print est le CMJN (Cyan-Magenta-Jaune-Vert) ou synthèse additive.

Les formats web/
Résolution standard 72 dpi soit 72 pixels pour 2,54 cm.
La colorimétrie standard est le RVB (Rouge-Bleu-Vert) ou synthèse soustractive.

– Le .jpg ou jpeg, pour « Joint Photographic Experts Group » est l’un des premiers format compressé pour le web. Particulièrement conseillé pour la photo grâce à sa bonne qualité d’image et son amplitude de résolution, on le retrouve d’ailleurs partout comme standard en photo, vidéo, smartphone… Meilleur choix donc pour afficher une phot sur internet standard (sans détourage) car la transparence n’est pas prise en compte.

– Le .gif pour « Graphics Interchange Format », inventé en 1987 spécialement pour le web. Format très compressé en 8/16/24/64 bits, gère parfaitement la transparence et les animations (Gif animé). S’adresse plus aux logos, illustrations et graphiques que les photos dû à la très forte compression qui privilégie le poids au détriment de la qualité. Après avoir connu une éclipse, ce format revient sur le devant de la scène depuis quelques années grâce à la possibilité d’exporter facilement des extraits de vidéos sans en passer par des plugins et embeds des formats vidéos.

– Le .png pour « Portable Network Graphics », format plus récent (1996) se présentant comme une version très améliorée du gif. « lossless bitmap image format ». De qualité très supérieure il gère toujours la transparence, et de manière beaucoup plus fine, avec des transitions alors que le gif ne permet aucune gradation (on passe d’une opacité 100% à une opacité 0%). Très largement utilisé sur le web aujourd’hui en complément du jpg.

– Le .svg pour « Scalable Vector Graphics » (1999). Si vous êtes un usager de wikipedia vous devez le connaître puisque ce format open source s’est largement fait connaître grâce à ce site. C’est un format comparable au .png qui commence à s’imposer depuis le début des années 2000. Il permet aussi la gestion des animations et des transparences, est de base vectorielle (coordonnées de formes et couleurs plutôt que comptages de pixels) et supporte même l’aimation 3d. Il peut contenir des instructions supplémentaires depuis un fichier XML ce qui donne plus de latitude que pour une image classique. Il supporte bien également l’encodage en base 64 bits.

Alors que choisir ?
– La photo ? Sans hésitation, jpg. Directement depuis votre appareil photo, smartphone, ect. Attention toutefois la résolution de ces derniers peut être 300 dpi par défaut, pour l’impression papier. Il faudra trouver un logiciel qui permette de diminuer la résolution à 72 dpi.
– Des extraits de vidéos ? Si c’est court (5 secondes), le gif animé est parfait. Parfait aussi si vous n’avez besoin que d’un graphisme très léger, un simple carré de couleur par exemple.
– Des images avec transparences ? Png ou Svg. Attention toutefois pour le second qui n’est pas encore supporté par tout les navigateurs, et les anciennes versions.

A signaler que vous pouvez aussi agrémenter vos images avec du code (style CSS), mais à vos risques et périls car le rendu sera différent selon les navigateurs, ce qui n’est pas le cas pour une image, toujours interprétée de la même façon.
Exemples: Bordures transparente ou couleur, dégradés, ombrages, effets de rollover (interactivité)…

Depuis que les sites doivent êtres « responsives » (auto-adaptables aux smartphones/tablettes) Vous pouvez aussi remplacer certaines images par des pictogrammes vectoriels. Il en existe des milliers venant de nombreuses banques actuellement. L’un des standards les plus utilisés, avec Bootstrap (architecture responsive) comme Fonts Awesome. Viedoc.fr en affiche sur les pages de présentation.

SEO: Les 7 étapes de la pyramide de liens

08 Juil 2015, Posté par adminviedoc dans Digital

Nous avons évoqué déjà le silo dans ces pages, sans entrer dans les détails. Mais connaissez-vous la pyramide de liens ?
Plus anciennes que les silos (parmi les monuments du Black Hat SEO, ce sont des merveilles antiques!), elles ont été largement érodées par les algorithmes de google, Panda en particulier. Le concept est né vers 2005-2006 et nombre de sites ont pu se hisser haut sur l’horizon des recherches grâce à ces techniques éprouvées et maintenant en partie obsolètes. Cet article est donc aussi bien un avertissement qu’une indication des éléments qui pourraient le cas échéant être repris en tout ou partie dans du grey hat SEO:

A l’instar des anciennes pyramides de Gizeh en Egypte, les blocs de construction de la base sont l’oeuvre d’esclaves, ici des liens « spammy » en quantité industrielle. La grande idée derrière est que la pyramide est construite par niveaux de sites successifs qui se passent le « mauvais jus » et le filtrent, étape après étape, à travers des strates de plus en plus vues comme « légitime » par google. La règle d’or est que les sites successifs se passent le jus de manière latérale ou vers le haut, jamais vers le bas.

1- Construire la base:
Il s’agit en tout premier lieu de construire des sites internet gratuits de manière massive, sur un des plateformes de blogging ou sur Squidoo. Ces sites doivent être absolument sans pubs. Ces sites doivent avoir des liens vers d’autres sites extérieurs de qualité supérieure, et pointer également vers d’autres sites plus haut (2e niveau), mais à vous. La diversité est importante. Les sites en question sont évidemment relatifs à la thématique, et si possible couvrir en contenus toutes les sémantiques connexes et associées, sans pour autant avoir « quelque chose à vendre ».

2- Ajuster la base:
Ce premier niveau va surtout servir de variable d’ajustement, en ouvrant ou coupant les vannes à volonté. En effet, il sera possible d’expérimenter le spamming des sites supérieurs et les faire acquérir du jus jusqu’à ce que les sites de la base soient bannis. Vu la quantité et basse qualités des liens, un logiciel est utilisé pour la gestion.

3- Construire le second niveau: Le hosting.
Il s’agit de domaines au nom n’évoquant pas(trop) le spam, établis chez des hosteurs gratuits ou bas de gamme, mutualisés et en grand nombre. Dans l’idéal chaque site devrait avoir son propre hébergement séparé pour créer l’illusion de la diversité aux yeux de google, mais cela est réservé aux niveaux supérieurs. la facteur coût est important ici.

4- Construire une ferme de liens de qualité intermédiaire.
Sur ce second niveau, les liens ne doivent jamais descendre. Ils sont toujours latéraux ou vers le haut. Les sites sont de bien meilleure qualité générale, peuvent bénéficier de liens achetés, du jus venant d’annuaires (spécialisés si possible) et de la presse. Quelques pubs sont acceptables pour leur financement.

5- Construire le troisième niveau.
Ce troisième niveau va servir finalement à passer le jus vers votre site final, de monétisation. Ces sites sont prêts pour le prime time, avec un design et une ergonomie soignée, des flux rss, et sont vos sites d’autorité et de niche, plus récemment avec leur propres fan-base sur les réseaux sociaux.

6- Construire un linking varié et de qualité.
Leurs liens proviennent du niveau 2 de la pyramide, combinés avec des liens achetés, du linkbaiting, des liens manuel de qualité avec optimisation variable, mais aussi un spamming de liens très ciblé et contrôlés. Ces sites peuvent faire de l’argent, mais leur véritable but est bien d’envoyer du jus de qualité vers la cime de la pyramide.

7- Mettre en place le sommet: Votre money site.
Il s’agit bien d’un site immaculé, white hat, que l’on souhaite présenter à Google. C’est tout le travail effectué sur les niveaux inférieurs qui paye. C’est en général un site boutique très bien optimisé, pour lequel des bloggeurs, influenceurs et liens payés travaillent en amont. Il peut bénéficier aussi d’une sélection draconnienne de liens (par Link ninja), avec ajustements sur le long terme.

Au final, il est important de ne laisser aucun « biscuit » à google pour vous retracer pendant cette construction. Pas de suivi google analytics, ni adwords pour la monétisation, etc. Votre nom ne doit être associé à aucun de ces sites et vous devez surfer dessus sur un autre navigateur que chrome, si possible en anonyme pour contrôler le travail.

Sites mobiles: Il est temps de devenir compatible !

25 Juin 2015, Posté par D. Bocquelet dans A la une, Digital

Depuis la mise à jour du 21 avril dernier de Google, annoncée depuis janvier 2015, il a été établi par le géant de Mountain View que les sites « mobile friendly » ou encore sites mobiles c’est à dire construits pour être compatibles mobiles, bénéficieront d’un bonus dans les résultats de recherche lorsque ils sont affichés sur mobile. Cette mesure ne change rien pour les sites de l’ancienne génération affichés sur PC, sinon une très légère baisse de fréquentation générale, mais force est de constater que cette mesure, couplée à l’évolution des modes de consommation des internautes créé de fait un internet à deux vitesse. Entre les sites « responsive » (le terme technique utilisé par les webdesigners) et les sites de l’ancienne génération (conçus pour écran PC) l’écart se creuse… vite.

Quelques chiffres:
– En juin 2014, près de la moitié des français surfent sur mobile, 75% des moins de 30 ans. Le panel s’est plus équilibré depuis 2012, et comprends maintenant 50% de +35 ans et une plus grande portion est féminine.
– En 2014 les achats sur mobile/tablette ont augmenté de 50%.
(src: sondage médiamétrie 2014)

Au final: Un site responsive est donc plus visible, mieux lu, entraîne plus de conversions et de ventes, donc de chiffre d’affaire.

Attention toutefois de relativiser son public cible. La compatibilité des sites mobiles profite surtout au BtoC (Business to Consumer), et donc aux services de proximité, commerçants, restaurants, salons de beauté/coiffure, etc. A ce titre en complément du site, une page facebook est un excellent moyen d’augmenter son chiffre d’affaire, en créant progressivement une communauté active de followers. Il suffit pour cela de poster de temps en temps, depuis son mobile justement lorsqu’on dispose de l’application, en particulier lorsque son métier est visuel ou se prête aux visuels. Il permet de fidéliser ses clients et d’en trouver d’autres. Un site responsive et une page facebook en complément sont des recettes qui marchent très bien.

Pour le BtoB, les personnes recherchant un prestataire en rapport avec leur métier utilisent généralement leur PC, étant à leur poste de travail. La portion « nomade » de professionnels utilisant leur mobile existe bel et bien toutefois, mais elle représente une fraction réduite des visites à but BtoB. Les possesseurs de site web auront donc plutôt tendance à ne « pas se presser » pour effectuer cette conversion, qui peut dans certains cas nécessiter un audit et une refonte sur devis dont le budget peut avoisiner plusieurs milliers d’euros pour un site important. Pour les sites utilisant une architecture CMS (Comme wordpress, Joomla, Drupal…) les templates récents sont le plus souvent responsive, donc la compatibilité est déjà présente. Pour ceux donc le template commence à dater, il est possible de changer de template à peu de frais et d’en profiter pourquoi pas pour entreprendre une refonte et une modernisation du site…

Un aspect à prendre en compte pour la transition numérique des entreprises
Le fait d’être présent sur mobile présente une corrélation certaine avec sa propre présence sur les réseaux sociaux. Cela consiste de manière générale à se rapprocher tout simplement d’un auditoire devenu « nomade » dans ses modes de consommation d’internet, et dont les réseaux sociaux constituent la première consultation régulière après les mail et le surf sur Google. En tête de tiercé, Facebook, Twitter, Linkedin/Viadeo dans une optique plus professionnelle mais aussi les réseaux sociaux d’images (prisés par les -30 ans): Pinterest et Instagram.

Viedoc Solutions propose tous type de conversion responsive (compatibles tablettes/mobile) et des audits et des études de présence pour effectuer une transition numérique efficace.

etude-mobile-friendly-2015-01-680x2621

WordPress 4.2, votre plateforme de Content Marketing

05 Mai 2015, Posté par D. Bocquelet dans A la une, Digital

WordPress vient de sortir une nouvelle version, 4.2 depuis la semaine dernière, et 4.2.1 récemment du fait de la découverte inopinée d’un bug. Parmi les différentes améliorations apportées figurent en bonne place l’arrivée de fonctionnalités de partage simplifiées.
faits et chiffres: Wordpress n’est ni un réseau social, ni un logiciel de content marketing à proprement parler, mais le CMS/blog le plus utilisé au monde :

  • -11e anniversaire en 2015 (2004)
  • -Près de 20% des sites mondiaux, près de 80 millions de sites dont CNN, TechCrunch, Forbes…
  • -Plus de 20,000 bloggeurs qui déclarent vivre de leur blog wordpress
  • -Plus de 19,000 plugins disponibles (gratuits pour la plupart)
  • -285,000,000 téléchargements de plugins
  • -Traduit en une trentaine de langues, qui sont autant de communautés actives
  • -La première requête tapée en tant que CMS au monde (short et long tail)
  • -Considéré comme meilleur que Drupal et Joomla pour la plupart des experts en termes de facilité d’usage
  • -CMS préféré des bloggeurs, rédacteurs freelance, et marketeurs

Nous reviendrons sur les astuces et plugins indispensables pour être efficace avec WordPress, aussi bien pour le SEO que pour le content marketing, qui nous intéresse ici.

WordPress se pratique de deux manières: En disposant de son blog sur le portail wordpress (ex.monsite.wordpress.com), ce qui permet de s’affranchir du problème de l’hébergement, et reste gratuit dans une certaine mesure (pas de publicités en utilisateur VIP), et indépendamment avec son propre hébergement en installant wordpress. L’installation ne comprend que 2 phases archi-simples et ne prends qu’une minute avec les données en mains (adresse hébergement, identifiants et codes d’accès au serveur et à la base de données). La seconde phase permet de définir le mot de passe d’accès au back-office.

Chez Viedoc Solutions nous avons testé des dizaines de CMS différents dont Drupal et Joomla. Nous aurions tendance à conseiller ces deux derniers pour des clients ayant besoin d’un site web avec des exigences complexes. En fait la plupart des experts (et nous mêmes) sont d’accord pour définir une gradation continue complexité/performance allant de WordPress vers Drupal avec Joomla entre les deux. Drupal est sans doute le plus puissant des trois, et de loin. En 2004 personne n’aurait songé à comparer WordPress avec les deux autres, car il figurait alors plus comme un « moteur de blog » qu’un CMS complet. C’est avec l’engouement de sa communauté autour du projet qu’est enrichi de tant de fonctionnalités, il est maintenant considéré comme un CMS complet à parts égales avec ses deux concurrents. Dernier plugin en date pour souligner cette parité: Woocommerce, qui le transforme en site de vente en ligne (il en existe 20 autres). Entre les deux il existe des possibilités de rendre du contenu caché et accessible aux lecteurs VIP (avec un passe, via un paiement par bouton, etc.).

WordPress se présente sous la forme d’une « usine à produire du contenu ». Tout est optimisé en ce sens en effet. On peut en effet, montre en main, créer son premier contenu en 5 minutes depuis l’enregistrement du nom de domaine (si disponible immédiatement) jusqu’au premier article, en passant par la création de la base de données, le téléchargement du CMS, le transfert FTP, puis l’installation et la personnalisation (titre, slogan, template, balises SE…). Ni Drupal et Joomla ne sont aussi facile à prendre en main et nécessitent une courbe d’apprentissage sensiblement plus élevée.

L’interface se présente sous la forme de trois zones: Le menu principal amovible sur fond sombre à gauche (avec menus déroulants), la partie centrale dédiée au contenu avec en dessous les options liées au contenu et options, et les colonnes contextuelles à droite (statut, catégories, etc.). L’avantage de la présentation des articles et de permettre une publication programmée, et de changer différents paramètres sans ouvrir l’article même. WordPress est également optimisé pour la gestion multi-auteurs.

A part une amélioration de l’utilisation d’emojis (emoticones) dans les posts, et qui vient avec un travail d’optimisation des caractères Chinois, coréens, Japonais, etc. Autre amélioration côté utilisateur, le nouveau mode de prévisualisation des templates. Le mode d’installation et de mise à jour des modules à été également repensé pour ne pas générer de popup ou de page supplémentaire. Cela se fait en ajax, sur place. Parmi les autres modifications mineures, on peut signaler la palette de couleurs par défaut pour la zone d’administration de WordPress qui est améliorée, les termes partagés entre différentes taxonomies son mieux gérés après mise à jour, et une nouvelle fonctionnalité pour la fonction wp.a11y.speak permettant au lecteur d’écran de lire les réponses générées par JavaScript.

Wordpress 4.2

Mais par rapport à ce qui nous intéresse, la grande nouveauté est le « Press This ». Cette fonctionnalité existait déjà dans les moutures précédentes mais personne ne l’utilisait et peu la connaissaient. Avec l’édition de WordPress 4.2, ce bouton renaît de ses cendres, avec l’arrivée d’une « bookmarklet bar ». En clair, c’est un moyen de récupérer du contenu (bookmarker) à la volée depuis votre navigateur si WordPress est ouvert dans un autre onglet. Pour l’activer il suffit tout simplement de faire glisser le bouton « press this » (sur la page outils) vers sa barre de navigation avec ses autres icônes, et il ira tout simplement d’intégrer. Le Press this est compatible IE9+, Chrome et Firefox dernières versions, et marche aussi sur mobile. Nous n’avons pas testé sur Opera, Safari et d’autres navigateurs moins connus. Le press this peut être aussi utilisé sur mobile, il suffit d’ouvrir la page outil de votre blog sur votre iphone et de répéter la manoeuvre.

Le Press This permet en effet d’intégrer des articles avec un scan de la page qui détermine et intègre directement le contenu quelque soit sa nature: Vidéo, Youtube, Vimeo, Instagram, Slideshare, Twitter… L’action de bookmarker un site ouvre une page en pop-up dans laquelle on va retrouver les éléments parsés, notamment les images de la page (on va donc pouvoir sélectionner laquelle ajouter), et autres médias d’un simple clic sur un « plus », éditer le titre et éditer le texte qui va avec (accroche par défaut). La source est automatiquement ajoutée. On peut également profiter de l’édition pour intégrer habilement un insight. A main droite, le popup propose de classer d’emblée l’article bookmarké (qui vient alors s’insérer aux articles courants) dans la catégorie qui convient, et on peut également tagger l’article (« étiquettes »).

Le fait que l’article s’insère dans le fil courant des articles (après l’avoir publié) permet en effet non seulement de travailler l’article plus en profondeur en mode code ou visuel, avec ses options de mises à page améliorées de l’éditeur, mais aussi d’y appliquer toute les options disponibles pour chaque article, combinée des différents plugins que vous avez installé. Dans notre cas, entre autres choses, la possibilité d’optimiser le SEO grâce aux nombreuses options du plugin Yoast.

On note que l’image est aussi intégrée dans la galerie multimédia. On pourra par exemple, une fois en édition dans wordpress, remplacer l’image intégrée via la curation par une image de sa banque ou de la même, mais en tant qu' »image à la une » par exemple, sans compter les modifications possible. Pour insérer l’article en vue d’un publication stratégique, le fait d’avoir l’option d’enregistrer comme brouillon à côté de la publication directe et la prévisualisation depuis le popup sont utiles.

Une manière intelligente par exemple, de rebondir sur l’actualité en créant ses articles à la volée en partant du web et de ses sources préférées, et donc de gagner un temps considérable dans la phase de curation/création de contenu.

Une bonne nouvelle assurément lorsqu’on a pour objectif de créer un contenu de « second ordre » pour jouer sur le volume, toujours inscrit dans une démarche d’authorship. C’est donc maintenant officiel: On peut utiliser WordPress pour faire également de la curation en vue d’une stratégie de contenu diversifiée, sans quitter son blog préféré. Publié automatiquement ensuite sur ses réseaux sociaux choisis et via rss, ont voit très vite ce qu’apporte cette nouvelle dimension de WordPress 4.2.

Les 20 meilleurs CMS de Forums

08 Avr 2015, Posté par adminviedoc dans Digital

Liste des logiciels CMS de Forums (Content Management System), mis à jour en 2015. On le voit, les Forums les plus anciens sont souvent Open Source, les plus récents sont payants et se présentent comme des outils de support commercial; community management, réseau social sur mesure, ou même de plate-formes d’Inbound marketing.

Ginger HQ GingerHQ
« gingembre QG » est une app de discussion en groupe privé qui favorise la transparence pour les discussions d’équipe et le partage d’information. Il peut remplacer les listes de distribution électronique, les interfaces de groupes Google+, et les outils de gestion de projets dédiés, souvent lourds. (Actuellement fermé, n’accepte plus de nouvelles inscriptions)

Plus Forum PlushForums
Service de forum cloud attractif, puissant mais facile à utiliser, une plate-forme de communication et facilement personnalisable pour discussions en temps réel, un blog intégré, un service de support, une messagerie privée, des abonnements PayPal, et totalement responsive. Une installation sans connaissance technique particulière ni plugin à installer. Il est payant, mais né de la même équipe que Pinterest.

Ninja Post NinjaPost
Ce service propose aux utilisateurs des options orientées vers la Collaboration. Ce logiciel payant est très orienté Inbound Marketing. En plus des fonctionnalités standards attendues d’un Forum, il dispose d’options de SEO, de planification, d’analyse et de suivi des threads de discussion.

Get Satisfaction Get Satisfaction
Cette plateforme communautaire payante très orientée Support produit, Community Management et Gamification aide les entreprises de toutes tailles à créer des relations efficaces tout en réduisant le coûts du support classique, pour plus d’engagement et stimuler l’innovation produit.

IP Board IP.Board (Invision Communauté Suite)
Puissant et complet logiciel (payant) de forum commercial. IP.Board offre une protection anti-spam inégalée avec une énorme communauté et un vaste marché d’addons et de thèmes. C’est un des CMS de Forum professionnels historiques.

PHP BB PHPBB
L’un des forfaits les plus connus et utilisés au monde. Très populaire, très skinnable, avec des tonnes de plugins et une dynamique et active communauté pour le support. Depuis 2000, phpBB, open source, s’est imposée comme la solution libre la plus solide du marché.

Forum Advanced Electron Forum Advanced Electron
Très simple et facile à utiliser pour son installation comme pour la gestion de l’administration. Nombreux thèmes disponibles, personnalisables facilement. Interface simple et moderne, agréable, où les utilisateurs peuvent définir leurs préférences de conseil.

Vanilla Forum Vanilla
Open-source, ce CMS est conforme aux standards pour un Forum, avec une gestion native multilingue, et un forum de discussion entièrement extensible pour le web, avec notamment des options SEO intéressantes. Vainqueur en 2014 du People’s choice creation CMS award aux USA.

BB Press bbPress
Écrit par Matt Mullenweg (WordPress) lors d’un voyage, bbPress est une solution de forum rapide et légère, intégrable dans WordPress ou qui peut être installé en stand alone sur tout autre CMS et facilement personnalisable.

Phorum Phorum
CMS de 1998 Open Source sur Php/MySQL. Les développeurs de cette solution s’enorgueillissent pouvoir créér de puissantes plateformes de messagerie conçues pour répondre aux différents besoins et configurations de sites Web sans sacrifier les performances ou les fonctionnalités.

PunBB PunBB
CMS rapide et léger écrites en PHP/MySql très populaire pour sa facilité de thématisation et sa vitesse d’exécution.

UBB Central UBB.threads
Initialement appelé WWWThreads, ce CMS est historiquement l’un des tout premier forums (1997) et peut toujours soutenir la comparaison avec d’autres solutions plus récentes.

XMB Forum XMB
CMS de Forum en PHP/MySql léger et rapide, avec toutes les fonctionnalités standard pour soutenir une communauté grandissante. Avec une communauté active et de nombreuses contributions, il se révèle facile à installer, à personnaliser et améliorer.

SMF Forum SMF (Simple Machines Forum)
CMS écrit PHP/MySQL, conçu pour fournir toutes les fonctionnalités standard d’un bon VBulletin tout en ayant un impact minimal sur les ressources serveur.

Use BB Forum UseBB
CMS Open Source PHP4/MySQL bien sécurisé et robuste, distribué gratuitement sous licence GPL.

MyBB MyBB
CMS de Forum de discussion open source PHP/Mysql qui a évolué à partir de simple fonctionnalités de messagerie vers un forum complet, il est aujourd’hui considéré comme à la fois léger, rapide mais très complet, avec une communauté importante.

V Bulletin vBulletin
vBulletin est LE CMS de Forum professionnel, abordable pour forum communautaire, avec des milliers de clients, y compris des leader de l’industrie sociétés de premier ordre. Un choix idéal pour une communauté importante, avec un excellent support, un nombre d’options et une sécurisation rarement atteintes.

Ya BB Forum YaBB
YaBB est un CMS open source de forum communautaire écrit en Perl.

JitBit Asp Net Forum AspNetForum
Jitbit AspNetForum est un logiciel de forum complet écrit en ASP.NET, ce qui le rend facilement adaptable aux CMS écrits dans ce language.

Les données Google Analytics vous mentent

24 Mar 2015, Posté par D. Bocquelet dans A la une, Digital

Qui n’a pas rêvé d’afficher de belles courbes de progression et des chiffres de fréquentation mirobolants sur son site internet ? Combien de fois de belles statistiques des chargés de référencement ont été présentées en réunion et combien de fois le ROI n’était pourtant pas au rendez-vous ? Qui est à blâmer, qu’est ce qui coince ?

L’aspect fondamental dans cet état des lieux est un constat que trop souvent les données statistiques brutes de Google Analytics ne sont pas interprétées de la manière qui convient, ou pas du tout. Or c’est souvent toute la stratégie de référencement qu’il faut souvent revoir après un audit Google analytics. En effet, quelques questions doivent être posées:

-Un trafic considérable sur son site est-il un gage de succès ?
-Les paramètres comportementaux ont-il étés pris en compte ?
-Comment fait-on le lien entre le ROI et ce trafic ?

-Démultiplier le trafic vers son site internet: Une fausse bonne idée !

Le point essentiel à considérer est: Qui vient sur votre site ?. Cela dépend en effet des stratégies de référencement adoptées. Une stratégie de référencement massif, agressive, et basée uniquement sur la popularité peut en effet engendrer une hausse impressionnante du traffic, mais les ventes ne vont pas suivre pour autant, ni la réputation de la marque. Ceci peut-être dû à plusieurs causes, mais le premier indicateur sera dans tous les cas le taux de rebond.

Si ce dernier dépasse en effet les 75%, voir les 80-90%, il faut sérieusement se poser la question de l’adéquation entre le contenu présenté sur la « landing page » (page d’arrivée des visiteurs sur lequel porte le référencement) et le travail de référencement fait en amont pour amener ce trafic. Si les visiteurs ne restent pas, cela ne signifie qu’une chose: Le contenu présenté ne les intéressent pas, et ils repartent. Il en résulte un taux de transformation très faible, voire insignifiant, et donc pas de ROI.

-Comment prendre en compte les paramètres comportementaux ?

Pour rebondir sur ce qui a été dit plus haut, le plus important paramètre a considérer est le taux de rebond (en anglais « bounce rate »). Ce dernier est visible dans le coin en base à gauche sous la courbe de trafic en page d’accueil du tableau Google Analytics (GGA). Il est convenu qu’au taux de 30 à 50% est très honorable, mais au-delà de 70% il faut commencer à se poser des questions. Au dessus de 80% il y a manifestement un décalage entre les attentes des internautes et le site.

Toutefois le taux de rebond seul n’est pas suffisant. Il faut le compléter par (sur la ligne au dessus, et à droite), le nombre de pages vues, et le temps de session pour compléter le taux de rebond par des données comportementales approfondies. Un taux de rebond associé a aucune visite de pages et un temps de session particulièrement court (une seconde plus ou moins) donnera l’impression effectivement que l’internaute « fait erreur » en arrivant sur votre page. Si en revanche l’internaute prends le temps de parcourir le site, mais repart sans transformation, c’est qu’il ne trouve pas ce qu’il cherche.

Il y a d’autres indications comportementales utiles à recouper comme l’indication (onglet « comportement ») d’internautes qui reviennent le cas échéant. Proche de zéro cela indique une perte sèche. Une forte opération de référencement/marketing qui n’engendre qu’un taux de retour après une première visite inférieur à 10% indique en effet un décalage entre la sémantique de campagne, les attentes des internautes et le contenu de la landing page…

-Comment faire le lien entre trafic et ROI ?

L’élément le plus important ici à prendre en considération est le taux de transformation. Le paradoxe est que cet élément ne figure pas dans les statistiques Google Analytics. Tout simplement parce qu’il faut un élément de captage à définir pour établir un tel taux, ce que l’on appelle généralement le « call to action ». Souvent un bouton suivi d’un formulaire ou autre suivant les cas. pour une société de service il s’agit d’une prise de contact. Il faut bien retenir que l’on a à chaque fois un process à trois étapes et donc en théorie 2 taux de transformations qui peuvent être regroupés en seul: Le passage de l’internaute qui « voit » l’annonce de votre site, la visite, puis le call to action.

C’est la conversion entre le travail de référencement fait (le site est visible dans les résultats de recherche sur certaines requêtes, naturellement ou via des annonces) et le passage de l’internaute en visiteur, puis prospect ou client direct (dans le cadre de l’E-commerce) qui définit en fin de compte l’efficacité de toute campagne et donc le retour sur investissement (ROI.).

Au final les données google analytics affichant les chiffres records mais aboutissant en pratique à un faible taux de transformation (ex. moins de 1%) signale manifestement un problème d’approche de la stratégie SEO ou même de ciblage. On ne vise tout simplement pas les bonnes personnes. Il est donc important en amont de toujours vérifier l’adéquation de sa stratégie SEO au public visé. En effet mieux vaut réduire son périmètre ou travaille la « long tail » (requêtes longues et plus précises) pour aboutir à une plus forte transformation, à plus faible trafic.

Moralité: Les chiffres faramineux en eux même ne veulent rien dire, Google analytics vous ment. C’est sur le ROI au final que l’on juge de la pertinence des efforts fait pour attirer les visiteurs « qualifiés » et donc les futurs prospects en puissance. C’est le taux de transformation qui fait toute la différence, quitte à avoir une fréquentation dix, cente, mille fois inférieure…

Un infographie d’Intel sur ce qui se passe en une minute d’internet (en 2014), avec des prévisions de croissance jusqu’en 2017.

-Netflix et Youtube (videos) comptent pour 50% du trafic
-Les recherches Google: 4.1 millions de requêtes la minute
-3.3 millions de contenus partagés sur facebook
-347 222 twits
-57840 pages pinterest vues
-38194 nouvelles photos sur instagram…
Croissance prévues pour les réseaux sociaux en 2017: 13 fois depuis 2012, 3 fois plus de personnes connectées dans le monde.
4 Zettabits de données enregistrées sur les serveurs en 2013: C’est à dire 4 000 000 000 000 000 000 000 bits.

La fin du Captcha annoncée.

06 Fév 2015, Posté par D. Bocquelet dans Digital

Ou pour préciser un peu plus les termes, « fin annoncée par google. » En effet, les avances en matière de détection du comportement et algorithmes associés permettent au géant de Mountain View de présenter son alternative nommée reCAPTCHA en décembre dernier. Le système sevrait se déployer sur le nombre considérable de sites internet utilisant un formulaire et est particulièrement rafraîchissant dans son fonctionnement.

En effet, plus besoin de s’infliger la corvée de discerner et reporter une suite de chiffres et lettres torturées avant de valider son envoi (En outre sous peine se tromper et perdre son message, en plus de passer pour un robot !).  Avec son nouveau système Google ne demande que de cocher une case « je ne suis pas un robot », ni plus ni moins. Ce que fait l’API de Google est en fait de discerner et d’analyser l’interaction avec reCAPTCHA pour valider la nature de l’intervenant. Si par malheur vous passiez encore pour un robot (peut-être moins d’1% des cas selon Google) un système de captcha alternatif serait proposé, apparemment bien plus efficace que le traditionnel jimbo de caractères: Une série de photos, mises en relation. Typiquement une photo de chat qui correspondra avec d’autres chats/chiens/perroquets/plantes/etc. D’apparence inoffensif ce petit quizz est un piège à robot, car l’analogie ne peut se faire sur des critères de formes/nuances automatiques volontairement modifiés pour casser tout exercice logique – au moins du point de vue d’un ensemble d’algorithmes. Parmi les utilisateurs du nouveau système de Google citons Snapchat, WordPress et Humble Bundle.

Quid du traditionnel captcha ? D’après Google il serait maintenant complètement inefficace car « cracké » à 99,8%  par les robots actuels.

Présentation officielle. Pour installer ReCaptcha: https://code.google.com/p/recaptcha/wiki/HowToSetUpRecaptcha

Un peu d’histoire…
Rappelons un peu les origines du problème: Nous sommes dans les années 1990, et internet est encore dans sa petite enfance. Les intérêts financiers en moins, le spam est un concept encore pionnier dû à de rares hackers. On ne se méfie alors aucunement de laisser bien en clair son adresse mail sur son site internet. Entre temps la bulle internet est passée par là et virtuellement tout le monde se voit doté d’au moins une adresse mail. Une aubaine pour les publicitaires qui commencent à récolter par tout les moyens les mails de prospects potentiels. Très vite, les ex-hackeurs se font rémunérer pour passer d’un travail laborieux, souvent manuel, à une suite d’algorithmes calibrés pour détecter et collecter ces adresses, puis diffuser du contenu à ces mêmes adresses. Des robots, ayant bien des points commun avec les crawlers utilisés pour la recherche internet au sens large.

Puis vers le milieu des années 2000 avec la seconde bulle internet, l’industrie du spam atteint des records. Un internaute peu méfiant se verra arrosé copieusement d’offres « commerciales » manquant singulièrement de finesse, voire embarrassante, et pourra en outre laisser son adresse en s’inscrivant à de multiples services gratuits, sans garantie dans l’utilisation des données. Les fournisseurs d’accès et hosteurs mail unissent leurs efforts et proposent alors d’établir une stratégie de filtrage antispam dont la vigueur va croissante, parfois même zélée, tandis que les spammeurs jouent au chat et à la souris en multipliant les parades, dont des adresses d’envoi changeantes sans cesse, des variantes sans fins dans l’objet, le contenu, etc… De vrais mails « légitimes » pâtissent alors de cette guerre silencieuse au grand dam des utilisateurs de boîtes mail, et même l’utilisation d’un certificat serveur n’est plus forcément une parade.

Entre-temps les formulaires de contact font leur apparition:  Ils ont un double avantage. Ils masquent aux robots l’adresse a laquelle les données vont être envoyées (sauf lorsqu’elles sont encore présentes dans le code de la page) et permettent le cas échéant de récolter des données classées sur des prospects potentiels. Les captchas font leur apparition ensuite, car les référenceurs « black hat » on pris l’habitude de développer des robots calibrés pour déposer des « pseudo-contenus » en masse sur tous les sites internet possibles, assortis de liens sur optimisés. Si la chose est connue très tôt sur les blogs ouverts aux commentaires et aux forums, elle nuit également aux sites internet avec formulaires car les données remplies peuvent être de la réclame de même type que le spam classique (« mail »). Et pour y faire face, on déploie différents types de captcha (de « Completely Automated Public Turing test to tell Computers and Humans Apart ») destinés à effectuer ce contrôle avant validation. Le fameux « test de Turing » fut élaboré par le génial mathématicien et pionnier des ordinateurs Alan Turing dans les années 40.

Les captchas sont en général du type visuel, un champ suivi d’un affichage visuel aléatoire présentant une suite de lettres et/ou de chiffres, générés grâce à des images composites qui avec le temps sont brouillés pour empêcher leur lecture par des robots, moins exercés que l’oeil humain à discerner un dessin au sein de formes complexes. Toutefois cette course aux armements avec des robots de pus en plus performants (et aidés par la standardisation des Captchas) conduisit à des déchiffrages parfois même difficile pour des humains. D’où frustration, colère parfois, de se voir refuser une simple prise de contact à cause d’un système de protection. A cette fin un « shuffle » (bouton qui recharge le visuel) ou captcha alternatif (audio par exemple) sont apparus pour éviter ce blocage. Toutefois la courbe d’apprentissage et la vitesse d’exécution (pour de robots testant les solutions jusqu’à épuisement) font que cette guerre est perdue dans tous les cas.

Même avec reCAPTCHA Le problème reste présent
Ne nous racontons pas de contes de fées, le système de Google ne fera que simplifier la procédure de sécurité, mais elle ne stoppera en aucun cas le spam, qu’il provienne ou non d’ailleurs d’un formulaire de contact. Il est bon de rappeler une vérité toute simple, dont se servent abondamment les robots: Chaque nom de domaine pour des raisons pratiques, souvent dans un cadre professionnel, se voit doté d’au moins une ou plusieurs adresses mails, assises sur le nom de domaine ou un nom de domaine proche. L’exemple le plus simple est « contact@monsite.com » ou « info@monsite.com » qui peuvent êtres simplement présumées exister. Un robot qui détectera des noms de personnes pourra de la même manière décocher des mails en reconstituant des adresses de contact fictives: Exemple: Pierre Dupont pourra devenir avec de grandes probabilités de vraisemblance basée sur des cas analogues, p.dupont@monsite.com ou simplement pierre.dupont@monsite.com. Un bémol cependant. Sur un serveur d’ou partent des mail, surtout quand ce dernier est mutualisé (donc peu cher, ce qui convient parfois aux hackers) ont des garde-fous non seulement pour empêcher les envois de mails massifs, mais également les trop nombreuses erreurs de mail (légitimes ou testées). Le ratio varie de 1 à 10% et plus selon la tolérance appliquée. Il y a aussi les mailings sur des bases de données datées (très) qui engendrent également des erreurs. Pour le reste, cela ne gêne aucunement les hackeurs qui utilisent des PC ou serveurs zombies pour leur envois de mails et « grillent » ces derniers.

Pour les systèmes de contact sans collecte (base de données) l’envoi des données à partir e la page du formulaire se fait sur une adresse collectrice, tandis qu’un mail de confirmation de contact est bien souvent envoyée à l’utilisateur du formulaire (cela vaut pour toutes les inscriptions en général). Or, le mail part du site internet (pop) et pour être vu comme « légitime » par les serveurs receveurs (smtp) il doit en principe être identique au nom de domaine. On en revient donc à la forte probabilité d’utiliser une adresse mail basée sur le nom de domaine, que les robots utilisent à plein.

Comment se prémunir du spam:
Dans l’absolu, les captchas ne sont pas infaillibles, on peut faire attention à ne jamais laisser son adresse mail en clair ou se restreindre d’ effectuer des inscriptions pour des services gratuits d’utilité souvent douteuse et prenant cet alibi pour effectuer de la revente d’adresse. On peut aussi utiliser à dessin une adresse pour cette fin, et utiliser une autre adresse pour échanger avec ses contacts. Enfin on peut aussi utiliser une adresse mail, même professionnelle, difficile à deviner, comme pdcont@monsite.com pour « prise de contact » par exemple, voir des adresses ne faisant pas de sens pour des robots (mais qui paraîtront bizarre aux receveurs humains !). Il en est de même pour les adresses personnelles ou l’on peut éventuellement mixer de manière un peu savante noms et prénoms (les prénoms sont connus des robots). Faites preuve de créativité et organisez vous !

Un milliard de sites web. Et moi, et moi, et moi…

30 Jan 2015, Posté par D. Bocquelet dans Digital

Un chiffre qui donne le vertige, mais qui doit être nuancé…

Un milliard. C’était attendu avec la croissance exponentielle du web, encore spectaculaire en 2013 avec une croissance globale de 33%. Un milliard, c’était le chiffre tombé le 17 septembre 2014 de l’institut statistique Internet Live stats d’après ses propres relevés et confirmés par le très officiel ICANN, instance internationale en charge des noms de domaine, alors même qu’en mars, on fêtait les 25 ans du réseau des réseaux. Mais pour ce milliard, il s’agit bien de sites web, non de noms de domaines qui pour beaucoup ne sont que des redirections ou ne sont pas exploités.

Un monde virtuel mais avec un impact concret sur le monde réel.

Un milliard de sites web pour plus de 7 milliards d’habitants sur cette bonne vieille terre. Un site pour 7 habitants mais « seulement » 3 milliards d’internautes. Le monde paraît donc très connecté, mais il faut faire la part du bon grain et de l’ivraie car les données brutes ne donnent pas la vraie nature de ces contenus dont une frange considérable appartient encore au domaine du …spam. On rappellera l’impact de ces données de « pauvre utilité » pour les internautes, qui sont néanmoins hébergés sur des datacenters et contribuent aussi fortement à la dégradation de l’équilibre climatique; En effet toujours d’après Internetlivestats.com la seule consommation électrique quotidienne liée a internet a produit 2,17 millions de tonnes de rejet de CO2.

En effet certains acteurs du web produisent des centaines, voir des milliers de sites web qui n’ont qu’un contenu hautement artificiel, simplement pour soutenir une offensive de référencement backhat ou assimilé. Si la part des sites faits de manière automatisée tend à diminuer du fait de leur détection et de leur sanction sévère plus efficace de Google, la production est en parallèle tout aussi vigoureuse. Leur part restera de toute manière bien plus faible que celle des « mails » envoyés chaque jour, 170 milliards d’après Google, et donc un solide 80% appartiennent au domaine sans équivoque du spam.

Le web profond s’approfondit : Les abysses du web

Outre les site spammy parfois anciens et oubliés mais qui constitue cette « masse sombre » perdue dans les abysses des résultats de recherche (en passant autour de 3.2 milliards de requêtes de recherches par jour pour google), il y a aussi des « sites » réalisés par les hosteurs de noms de domaine, qui truffés de liens automatisés pour conserver une partie du référencement du nom de domaine abandonné par son propriétaire après inactivité. Il y aussi les sites d’entreprises ou de particuliers, innombrables, qui ne sont plus mis à jour mais restent présents sur un serveur. Tout ceci occupe encore une place considérable du « web ». Mais il faut bien souvent plonger, parfois très profond pour les voir. Et telle une tranquille sédimentation océanique, couche après couche et année après année, ces contenus oubliés s’accumulent, pour en arriver à ce chiffre.

Le référencement, plus que jamais.

Ce qui laisse encore un nombre confortable de sites web légitimes, récents ou simplement bien portants qui sont autant de concurrents pour la présence sur le web de toute entreprise. Donc nous en revenons encore aux bases d’un bon référencement pour sortir de cette masse. Outre les adeptes des campagnes adwords, il y a bien entendu toujours les « classiques », à savoir un site web bien construit, rapide, attirant, efficace, interactif de manière a créer la fameuse « expérience utilisateur » mise en avant par Google. Qui donc possède un site web ayant ces qualités, mis à jour fréquemment, relayé sur les réseaux sociaux et d’autres médias (documents, vidéos) n’a donc rien à craindre, quand bien même ce chiffre donne le vertige.

Pensez à Viedoc si vous souhaitez un audit de votre site web…