Digital

20 conseils SEO pour 2014

26 Mar 2014, Posté par D. Bocquelet dans Digital

En moyenne , Google fait environ 500 ajustements de son algorithme de recherche chaque année. Depuis Panda en Février 2011, les mises à jour autres changements ont été les plus ambitieux et ont eu la plus grande envergure dans leur impact dans l’histoire de Google et du référencement mondial. L’effet voulu et annoncé a été d’élever le « contenu de qualité », sanctionner les pratiques de de linking douteux et spamming, et distancer l’E-marketing de l’utilisation systématique de mots clés et de données de performance. Les modifications visent à améliorer selon Google la qualité des résultats de recherche (SERPS). Pour ceux qui pratiquent l’optimisation pour les moteurs de recherche (en Anglais SEO) l’impact collectif des mises à jour a été vécu parfois comme confus, frustrant et parfois désespérant. Une vague d’inquiétude inédite qui est allé secouer jusqu’au bases les plus solides de la profession – voire la remettre en cause.

Les E-Marketeurs ont tenté en 2013 de  faire face à tous les changements de Google, qui ont inclus Hummingbird, une révision majeure du moteur de recherche Google. « Chaque fois que nous réagissons et récupérons d’une mise à jour Google, il y a une autre.. » Comme déclarait Mike Huber, vice-président du service à la clientèle (Agence E-marketing Vertical Measures) dans un récent webinar. « C’est comme une série de déferlantes »…

Basé sur une enquête auprès de 60 experts référenceurs, CIO dresse un tableau fait de trois questions-réponses sur ce sujet.

-Compte tenu des updates Panda, Pingouin, Hummingbird, et autres grandes mises à jour Google, nous dirigeons-nous vers une ère post-SEO ?

-Cette discipline sera t’elle en 2014 différente de 2013 ?

-Qu’est-ce que les E-marketeurs, agences et référenceurs devront faire pour s’adapter ?

1-Le SEO sera toujours là. Selon Brian Provost, vice-président de la stratégie numérique de Media Group. « Le SEO est comme le droit fiscal. C’est un ensemble de questions et de stratégies pour optimiser la conformité de la présence des entreprise.  À cette fin, le référencement existera toujours en tant que pratique et discipline de l’adaptation contenu au marché.. « . Les entreprises intelligentes, il ajoute, ont cessé de jouer « à la chasse aux algorithmes », optant plutôt pour la création d’un contenu à base de métriques « en ligne avec la demande du marché. »

2. Le SEO a toujours porté sur le marketing de contenu. Brian Wood, directeur marketing senior référencement pour Wayfair.com, pense que la tendance du content marketing est exagérée. « C’est là-dessus que le référencement de qualité a toujours porté. Il semble que de plus en plus de personnes utilisant des tactiques spammy que Google a rendues plus difficile l’ont constaté à leur frais. « Les même outils de référencement professionnel white-hat utilisés l’année dernière seront utilisés l’année prochaine ».  « Cela dit, il est vrai que la barre est placée de plus en plus haut étant donné que toujours plus de sites se concentrent sur la production de contenus de qualité. C’est aussi plus en plus difficile de gagner des liens avec un bon contenu que les blogueurs qui inondent Google avec beaucoup de choses. »

3. SEO et content marketing deviennent synonymes. « Si vous jouez le jeu, vous ne pouvez pas avoir l’un sans l’autre » selon le consultant SEO Christian Sculthorp. Mais la SEO traditionnel aura toujours sa place, ajoute-t’il. « La plupart des gens sous-estiment le travail nécessaire pour optimiser la recherche des mot-clé, le balisage de chaque page la structure du site. Il y a beaucoup plus dans le SEO que du spam de liens ».

4. Les Bases du SEO ne disparaîtront jamais. Adam Barker, directeur marketing senior pour SmartBear Software, admet que le référencement a changé: « Le contenu est la nouvelle façon d’optimiser et de générer du trafic. » Mais vous avez encore à préparer votre site pour la recherche par mots clés et le référencement de base sur la page. Et il ajoute. « Cela pose les rails pour le train à venir – et s’assurer que vous avez le bon train grâce à la recherche par mot clé, ce qui est encore aussi important qu’avant. »

– Les pratiques de SEO devront-elles changer en 2014 ?

5. Les moteurs de recherche deviennent plus intelligents. « Les moteurs de recherche développent rapidement l’intelligence de discerner entre les sites Web qui offrent une vraie valeur ajoutée et ceux qui créent l’illusion de la valeur », explique James McDonald, analyste E-commerce pour Lyon Consulting Group. « Si (ne) vous pensez (pas) le SEO comme une stratégie HTML de linkbuilding, tactiques de mots-clés qui permettent à un site pour mieux se placer dans un moteur de recherche, alors oui, nous sommes sur la bonne voie à pour une ère post-référencement. » Pourquoi? La prochaine génération d’experts SEO va éviter ces techniques, selon McDonald, « et rechercher plutôt à dominer les classements en créant un contenu toujours plus pertinent, engageant et détaillé. »

6. La présence sur les réseaux sociaux va prendre toujours plus d’important sur la recherche. Cette tendance déjà évidente en 2013, ne sera qu’apparente que cette année, pour Ian Aronovich, president et co-fondateur de GovernmentAuctions.org. « Ce n’est pas que le ranking et le SEO seront terminés, cela vaut toujours la peine de s’y investir. Mais la part donnée à une forte présence sur les réseaux va devenir de plus en plus efficace et solide pour amener du trafic et construire une conscience de marque. » C’est parce que l’on peut plus plus rapidement partager du contenu sur les réseaux sociaux, notamment Twitter, Facebook, Google+ et LinkedIn, pour Aronovich. « Si vous mettez en ligne un contenu que les gens sont prêts à partager, vous pouvez obtenir beaucoup plus de visibilité pour votre entreprise et votre marque en beaucoup moins de temps qu’un traditionnel webranking. »

7. Déterminer le classement, et ses raisons, va être plus compliqué. Copley Broer, PDG de LandlordStation, imagine beaucoup de temps et d’effort consacré à déterminer les contenus les plus partagés et ceux qui font déplacer l’aiguille de ranking de Google et les autres. Flipboard, une application d’agrégation pour mobile, en est un bon exemple, pour Broer. « Être indexé dans le bot de Flipboard si ce contenu apparaît est important – mais il est presque impossible de dire quand les lecteurs afficheront ce contenu sur cette appli à moins que l’utilisateur clique pour l’ouvrir dans un navigateur. « Comment savez-vous ce que Google pense de l’importance ce contenu si vous ne pouvez pas dire combien de personnes le voient ?. Est-ce que Hummingbird prendra en compte Flipboard directement, ou y-aura t’il un effet ressenti qu’a partir du moment ou quelqu’un partage ce contenu de Flipboard à Google+? »…

8 . En 2014 , le référencement sera surtout mobile. David Finkelstein, directeur marketing pour KEMP Technologies, note que plus de 40% des e-mails sont maintenant vus sur un appareil mobile. » L’Email reste un application d’E-marketing « tueuse » qui peut … créer un effet de marketing viral comme aucune autre application. Le SEO et les contenus associés optimisés pour une plate-forme mobile qui se connecte à d’autres applications via des API  open source continueront d’être la plus grande tendance, et un vrai défi, pour les commerçants. »
B. Wood, de Wayfair.com, ajoute que la recherche mobile est la future révolution, car croît de plus en plus rapide par rapport à la recherche de bureau. « À un certain point, nous pouvons nous attendre à ce que Google commencer pondère la recherche de sites sur mobile… qui pour l’instant à pour elle sa vitesse exponentielle. En fin de compte, les sites web non « responsive » ou les sites mobiles ne présentant qu’une partie réduite de leur contenu présenteront une « mauvaise expérience utilisateur », et Google sera obligé d’intégrer cette variable ». Wood ne sais pas en revanche si une mise à jour du ranking des sites sur mobile interviendra en 2014… « mais quand Google le fera, les sites sans optimisation ou présence sur mobile vont être dans la panade. « 

9. Le Local SEO va continuer à peser. Pour Austin Melton, superviseur SEO on-site  pour SEOscalespro.com, pense voir Google et Bing continuer leur tendance à localiser les résultats de recherche. « Cela peut durement impacter la recherche nationale -horizontale, face à la recherche verticale » ajoute t’il.

10. Les requêtes en langage naturel seront plus importantes. Pour Daniel LaLoggia, directeur E-merketing pour Walker Sands Communications,  la plus grande tendance SEO va essayer de profiter de colibri, qui est moins un changement d’algorithme qu’un changement de la manière de rechercher pour le moteur de Google. Le porte-parole du géant de Moutain view souhaite que les gens soient en mesure de «parler» au moteur de la même manière qu’ils parlent naturellement, pour LaLoggia. Les utilisateurs, quant à eux, souhaitent voir Google analyser leurs phrases et comprendre leurs intentions. En conséquence, l’accent sur ​​des mots clés individuels devrait s’estomper et faire place à une approche plus périphérique, à sémantique large : Le thème de la création de contenu. « En d’autres termes, 1000 variantes de mots clés sur un thème devraient être moins importantes que beaucoup de contenu construit autour d’un noeud thématique de mot-clés qui reste à déterminer »

11. Le rôle des experts SEO va évoluer. « Il y aura une renaissance continue des agences SEO avec le content-marketing ou les officines d’inbound-marketing. Cela à déjà commencé à se produire », selon Tchad Pollitt, directeur marketing de DigitalRelevance. En outre, le mariage SEO-relations publiques traditionnelles représentera une autre tendance du SEO, prenant le nom de « PR numérique. » Enfin, Pollitt s’attend à ce que la communication marketing et les services de relations publiques avalent les départements SEO au sein des grands comptes.

-Vos meilleurs conseils pour 2014 ?

12. Identifiez les principaux points douloureux de vos clients en requérant des départements de ventes et des membres de l’équipe un soutien pour les évaluations. « Cela signifie que ces questions ne sont pas traitées sur le site », pour Barker de SmartBear software. « Rédigez votre hiérarchie de contenu autour de ces points et de questions attenantes. »

13. Restez honnête. « Mettre l’accent sur la génération de contenu de haute qualité dans la création d’un site Web qui sert vraiment ses utilisateurs et éviter les vieilles tactiques de linkbuilding » pour Halloran de Namu, Groupe de Voyage. « Si vous construisez une « killer app » en quelque sorte, vous aurez plus de chances d’attirer des liens de qualité que quelque autre technique de linking. »

14. Soyez une autorité, ne parlez pas de vous-même, et faites mieux que vos concurrents. « Ne faites pas blog d’entreprise de plus pour relayer des annonces que personne ne veut lire. Ajoutez de la valeur. Formez votre public cible, explique Adam Connell, directeur marketing pour le Royaume-Uni de Linkology. « Utilisez au mieux les influenceurs dans votre secteur et faites-les relayer votre contenu à valeur ajoutée. » « Ne vous inquiétez pas d’être unique ou de prendre des risques, et prenez le pas sur vos concurrents ». C’est ce que fit Social Media Examiner, et c’est l’un des blogs marketing/business les plus influents de la planète actuellement.

15. Gagnez de l’attention et développez votre réseau. Pollitt recommande la création d’un contenu divertissant et/ou de résolution de problèmes  mis en vedette par les médias en ligne et les influenceurs de l’industrie. « Les marques qui pourront vraiment percer sur les médias seront les grands gagnantes en SEO, ». Pour ce faire, développer un réseau de rédacteurs, blogueurs, éditeurs, journalistes et influenceurs de l’industrie, car pour Pollitt « ce sont les gens dont vous dépendez pour écrire et partager votre contenu. » En outre, le poids des cadres de votre entreprise en tant que chroniqueurs possibles sur des sites Web de l’industrie sont particulièrement populaires. Leur expertise est précieuse, pour Pollitt , et « les moteurs de recherche respectent les liens citations de sources fiables telles que les sites d’autorité d’une industrie ».

16. Envisagez votre politique de linkbuilding comme une autre forme de networking. Jason Whitt, le « geek de tous les métiers » à Geek Propulsed Studios, note qu’il y a eu des beaucoup spéculations concernant l’obsolescence supposée du linkbuilding. « Même si je peux comprendre le raisonnement derrière tout cela, je ne crois pas que ce soit vrai, » dit-il. « Il revient aux types de liens que vous créez sur un site Web et l’intention derrière leur acquisition. » « Ces liens deviendront effectivement obsolètes si votre stratégie se limite à payer pour des inclusions premium dans les annuaires et de spammer de commentaires des blogs » pour Whitt. « Le renforcement des liens naturels est un travail difficile, et il n’est en aucune façon rapide. La meilleure façon de regarder une construction de liens légitimes est de voir chacun comme une relation d’affaires. Le plus de temps et d’effort que vous mettez dans cette relation, plus il est probable que cette relation vous aidera à atteindre la position sur laquelle vous souhaitez vous placer ».

17. Insistez sur une qualité de contenu sous toutes ses formes. Oui, votre contenu doit être « incontournable, descriptif et différencié », explique Joelle Kaufman, responsable des partenariats et du marketing pour BloomReach – « …mais la qualité s’étend sur le côté technique de votre site, aussi. »  « Identifier et réduire, ou éliminer les pages en double dans votre contenu. Assurez-vous que votre linking interne permet aux utilisateurs et moteurs de recherche de trouver leur chemin sur votre site. Identifiez les sources de trafic on-site et off-site pour guider le contenu que vous créez, partagé et conservé. Assurez-vous que votre contenu est accessible et optimisé pour la recherche sur mobile, qui atteignent déjà 50% du trafic de recherche global ».

18. Construisez un site unique pour les utilisateurs de mobiles et de PC. « Avec l’évolution de la fracture numérique des recherches sur le Web, il y a un besoin accru pour les sites web adaptables d’être proprement consultés sur les smartphones, tablettes et ordinateurs », selon Jayme Pretzloff, directeur E-marketing pour Wixon Jewelers. Au lieu de développer un site pour chaque appareil, pensez à un conception en responsive design, qui s’adapte à la taille du navigateur et de l’appareil. En plus d’améliorer l’expérience utilisateur, ceci va stimuler le SEO grâce à une augmentation des visites, un taux de rebond réduit, de meilleurs classements dans les SERPs et plus de visites et d’activité sociale.

19. Recherchez les meilleurs mots-clés à longue traîne. Pour Kelly Boyer Sagert, directeur du contenu pour Guru Search, les mots-clés à longue traîne sont appelés à devenir plus importants avec la sortie de colibri, la dernière mise à jour de Google. Ces derniers contiennent généralement plus de mots, et sont donc généralement moins compétitifs car plus rares. Mais ils sont également beaucoup plus ciblés. « Lorsque vous en trouvez un qui s’adapte parfaitement à votre public cible, c’est une trouvaille formidable » pour Sagert.

20. Le Markeup prendra de l’importance. « Depuis les débuts du Web, la plus importante langue de codage Web a été le HTML. Le Web a évolué avec le HTML » selon Sagert. « La dernière version, HTML 5, intègre des ensembles de balises HTML qui aident les moteurs de recherche à comprendre les données structurées. (Ces balises sont catalogués et référencés par www.Schema.org.). Ces Données structurées aident les moteurs de recherche à comprendre rapidement et facilement les différents éléments d’une page, telles que des articles, les événements et les informations localisées ».

En fin de compte, le référencement sera ce qu’il devrait être et à toujours été…

« En 2013, le référencement de ces 10 dernières années est mort – et Dieu merci ! » Pour John Lincoln, co-propriétaire et président du cabinet SEO & social Ignite visibility. En 2014, « le référencement portera sur ce qu’il aurait toujours pu être : Créer un site en responsive design, développer une stratégie de content-marketing, de la publicité sociale, s’assurer que le site soit techniquement propre et sain et capter toutes les requêtes longue traîne que vous pouvez de manière responsable « .

Traduit et adapté de l’anglais. Source : James A. Martin pour CIO.com, 16 janvier 2014.

La conception de site web (seconde partie)

14 Mar 2014, Posté par D. Bocquelet dans Digital

Un « bon » site internet ne se décrète pas.

Même parfaitement optimisé il reste encore le plus grand chemin à faire avant d’en faire un outil réellement efficace. Lors de l’article précédent nous avions vu les démarches préalables et le brainstorming nécessaire avant la conception d’un site web. Toutefois, est-il besoin de justifier autant de temps consacré à ce dernier lorsque … la concurrence existe.

En effet, lorsque pour chaque domaine tout a été fait ou presque, et que l’on arrive bon dernier, on peux légitimement se demander s’il ne suffit pas de reprendre les recettes déjà utilisées dans tous les domaines, des accroches et rédaction marketing en passant par le graphisme, la philosophie et l’ergonomie.

-Quoi de plus semblable pour un site e-commerce vendant des accessoires informatiques qu’un autre ?

Surtout lorsque ces derniers sont basés sur les mêmes architectures (prestashop et magento entre autres) à peine personnalisées !

Ces « standards » déjà déployés largement et repensés, affûtés pendant près de 20 ans permettent effectivement aux professionnels du web et agences d’aller plus vite dans leurs propositions, et aux clients de cerner plus rapidement leur « cahier des charges » puisque les exemples abondent. Mon expérience personnelle m’a d’ailleurs amené plus d’une fois à dresser des cahiers de charges simplifiés sur le mode « je veux ça ».

Pour autant ce n’est pas parce que l’on débarque bon dernier sur un secteur ultra-concurrentiel que l’on va avoir forcément du mal à percer et justement que l’on va faire comme tout le monde !

La bonne vieille publicité à la rescousse

Bien sûr certains secteurs sont plus durs à percer que d’autres. On ne créé pas une nouvelle compagnie d’assurance tous les jours. Certains secteurs de la vente en ligne approchent de la saturation. Les concepts à la « -like » sont également saturés et peinent à trouver des financements. Toutefois en espérant que Google fasse son travail, il est toujours possible de percer en pensant « out of the box ». Il suffit d’avoir à la base un concept suffisamment original pour se démarquer justement de la concurrence.

Ce sont les règles de la publicité qui s’appliquent dans toute leur splendeur, et qui magnifient (et parfois inflexent) les idées du commanditaire. Se démarquer est un moyen de faire une impression durable sur des clients/prospects, tout en utilisant les mêmes méthodes marketing, ou en innovant. On joue sur des aspects spécifiques peu explorés, on manipule des leviers ça et là, de manière à renouveler le discours alors même que le fond reste le même (innovation incrémentale dans le marketing), ou bien on lance une idée radicalement nouvelle sur un secteur existant (innovation de rupture sur un marché).

Dans les deux cas (produit existant vendu différemment ou nouveau produit) ce genre d’innovation reste un risque. C’est un pari. Certains domaines accepteront plus facilement que d’autres des discours et propositions à la marge ou en rupture. Certains domaines sont plus conservateurs que d’autres, et pas forcément les plus attendus. Pour certains en effet, un discours en rupture aura l’effet même contraire à celui escompté. Or au lancement d’un nouveau concept on ne peut pas -si de gros investissement sont en jeu- se rater à la première réception; tandis qu’un site e-commerce vendant un produit très courant pourra plus facilement changer de ton si besoin est (changements de textes, nouveau Template…). Un site web conçu comme un outil et créé entièrement sur mesure dans une certaine optique de produit et cheminement marketing et ergonomique ne pourra être modifié aussi facilement.

Une bonne publicité qui aura pour base un site web devra donc prendre en compte les facteurs inhérents à la concurrence et au secteur concerné pour éventuellement conseiller le client sur les limites possibles et les « conventions » du domaine afin de diminuer ce risque. Une progression incrémentale (idée radicale mais faible investissement de départ) est un autre bon moyen de réduire les risques. On peut aussi « tester » le terrain en entourant une idée radicale de recettes éprouvées.

Si en revanche on souhaite faire exactement comme la concurrence, le seul levier restant étant une sur-optimisation pour correspondre le plus possible aux requêtes les plus populaires, reprendre de manière statistique les recettes qui fonctionnent et appuyer sur ce qui marche le mieux, ne négliger aucun levier, et avoir un budget conséquent notamment Google Adwords, la publicité directe la plus évidente.

Attention à l' »ergonomie standard »

Avoir un discours et un produit de rupture c’est bien, mais mélanger ça avec un site internet également complètement en rupture est un risque à ne pas courir. En effet voir quelque chose de différent et qui peut convaincre, mais ne pas trouver le moyen de poursuivre à cause de problèmes aussi prosaïques qu’un bouton mal placé ou ambigu, un cheminement contre-intuitif ou trop complexe ou pire, par de cheminement logiques visibles, sont des recettes pour une faillite assurée. Les rares cas ou l’on peut présenter une ergonomie atypique, très originale, voire même contre-intuitive à dessein sont ceux des créatifs, graphistes, webdesigners et agences de communication, qui doivent précisément se démarquer pour prouver leur savoir-faire.

Dans la plupart des secteurs marchands on s’attendra à trouver la même ergonomie partout, et l’usage généralisé des CMS à fait énormément pour leur standardisation. Par exemple on s’attendra à trouver les éléments suivants comme quasi-invariables sur tous les sites : Une page de présentation générale et des pages de contenus plus détaillés, un formulaire ou une adresse mail de contact,  une page de mentions légales (obligatoire) et éventuellement un « qui sommes nous ». Les deux dernières ne sont pas identiques (et souvent confondues). Sur un blog, on aura des thématiques associées à des articles, le fil des articles, un flux RSS et un moteur de recherche interne. Sur un site e-commerce, on s’attendra à trouver en plus un espace connecté de compte client, un panier, une page de CGV (Conditions générales de vente) et souvent aussi de livraisons/retours lorsqu’il s’agit de produits physiques.

La rapidité des internautes dictée par la force de l’habitude des internautes fera donc que l’on souhaitera optimiser son site en maximisant les aspects lisibilité/contraste, en plus du placement des liens et boutons le plus judicieux. Les techniciens pensent souvent « vitesse de chargement », alors que pour des sites de très grandes marques, des experts opticiens sont appelés afin d’optimiser le parcours des yeux et le jeu des contrastes, le tout basé sur des statistiques. Les cheminements ne se devront prêter aucun parasitage ou élément équivoque qui pourrait ne serait-ce que freiner très légèrement le passage de l’internaute au statut d’acheteur/prospect intéressé et actif. Un bon « cheminement » ergonomique et marketing est une planche savonneuse, très inclinée…

Ne négligez pas les aspects juridiques

Beaucoup d’internautes sont parfois scrupuleux sur cet aspect lorsqu’un doute s’installe (critiques mitigées ou absence de critiques, peu de communication…). A l’inverse bien des sites internet sont l’œuvre de webdesigners ou même infographistes souvent par nature hermétique au côté juridique. Or un des éléments de confiance négligée repose sur du « reassuring » dont les textes juridiques font partie. Un site sans mentions légales peut faire peur et fuir une clientèle potentielle. De même un site avec des mentions légales visiblement bâclées ou pire « copié-collé » et mal converties depuis un autre site fera la même impression, voire pire.

-Définissons d’abord la différence entre les « mentions légales » et la page « qui sommes nous ».

-Les mentions légales sont destinée notamment à dire qui est derrière le site internet, nommer le responsable de l’édition par exemple. C’est vital dans le cas ou du contenu extérieur est brassé par de multiples contributeurs, blogs, forums, espaces d’échange. Comme pour toute entité physique, un site internet a besoin d’un responsable en cas de litige, et un « rédacteur en chef » si les contenus sont internes. Pour la majorité des affaires concernant les droits d’auteur le responsable du site web souvent avait gain de cause en ayant défini son rôle comme d’organiser l’affichage de liens pointant vers un contenu extérieur et ont souvent des mentions légales très travaillées (parfois avec l’aide d’experts juridiques). Si une société est derrière, tous les renseignements administratifs la concernant doivent y figurer. Certaines se retrouvent au niveau du Whois, mais systématiquement, d’autant que ce dernier est parfois masqué. Mais si cette page sert aussi à se prémunir contre tout litige concernant les contenus externes transitant sur le site, il l’est aussi par rapport aux tarifications, imposant parfois de se renseigner directement si ces derniers sont inexacts en cas de site plus à jour par exemple. Techniquement, un internaute devrait passer par les mentions légales avant même de visiter le site… Ce que l’on fait lorsque l’on accepte d’installer un logiciel n’est pas passé dans les usages du web, et le marketing y gagne sans doute…  Un autre aspect devant figurer dans les mentions légales -souvent négligé- est l’obligation de mentions spécifiques aux bases de données acquises sur le site via un formulaire de contact. Tout site au moins en France, doit faire sa déclaration à la CNIL (Commission Nationale Internet et Libertés). Heureusement les procédures se sont très simplifiées selon le type de site. Mais tout site doté d’un formulaire doit préciser dans quelle conditions la base de données personnelles acquises lors de l’inscription sont utilisées (Certains sites peu scrupuleux les revendent en effet  à des tiers !) et précise la manière dont une personne inscrite pourrait faire radier ses données de cette base.

-Une page « qui sommes nous » (pas systématique) lorsqu’elle est bien séparée évoque plus sommairement la société, l’organisme, voire l’individu derrière le site web,  (contacts, mails, adresse, etc.) mais sans détails juridiques et parfois avec un aspect « philosophie » du site. C’est aussi une page qui rassure. Le web est anonyme, masqué par excellence. Avoir donc des noms, des contacts des adresses, rassure et participe au climat de confiance qui peut transformer l’internaute en client.

-Les conditions générales de vente et de livraisons. Mandataires sur un site E-Commerce, elles presque plus nécessaires au site de commerce lui-même qu’aux acheteurs, qui bien souvent cliquent négligemment sans les lire ces CGV-CLR pendant leur processus d’achat. Or elles servent aussi bien souvent pour le vendeur à se garantir d’à peu près tous les cas de figure qui pourraient survenir pendant la vie de son commerce en ligne. Bien travailler ses CGV-CLR permet donc de s’éviter par la suite bien des déboires avec les clients, des remboursements et des litiges. Bien travailler signifie aussi bien adapter ces textes à son cas de figure. Là encore faire du copier-coller d’autres sites n’aide pas forcément… Toutes les CGV ne sont pas utilisées par les sites E-commerce. Un site proposant par exemple des prestations intellectuelles avec un bon de commande doivent aussi travailler leurs CGV en connaissance de cause.

Et après …

Le site étant terminé, et sur le point d’être mis en ligne, c’est une autre bataille qui commence. Certes, ce n’est déjà plus de la « conception » au sens strict, on est déjà dans l’après-site. Mais ce serait oublier qu’un site web vit et évolue. Un bon référencement par exemple, s’appuie sur des statistiques de fréquentation (type Google analytics ou Xiti …) pour voir s’il y a des problèmes éventuellement dans le cheminement des internautes, et plus fondamentalement jauger les « signaux fort » et « faibles » qui permettent de se faire une idée des performances du site.

-Parmi les signaux forts, on notera bien sûr les chiffres de fréquentation en eux-mêmes (nombre d’internautes par jour, mois, etc.), que des données sur leur système d’exploitation/navigateur qui permettent le cas échéant d’adapter techniquement le site, la nationalité/langue et zone d’origine, mais aussi des données comportementales comme le taux de rebond, le nombre de pages visitées et leur cheminement sur l’ensemble des pages du site.

-Les signaux faibles se déduiront d’à peu près tous les autres indicateurs, souvent indirects, qui permettront de se faire une idée « marketing » d’un ciblage réussi -ou non. Qui commanderont alors les ajustements nécessaires

-Sur le plan purement technique côté « robot », Google webmaster Tools peut être un guide utile. Il y a également des quantités de sites d’audit gratuits qui proposent de parser le site pour en tirer des diagnostics SEO, balises, sémantique, liens, détails techniques divers, par rapport aux canons du SEO.

-Enfin il y a l’aspect financement du site même. Dans certains cas lorsqu’il n’y a pas de produit à vendre mais de l’information, l’usage de publicités (Google Adsense et en régies comme Trade doubler) constitue une solution, à condition que le trafic du site soit suffisant. On peut tourner autour concrètement de 200 € par mois pour un site à 10 000 visiteurs et plus par jour si les pubs sont bien « camouflées » dans le site. C’est très utilisé par les sites de partage/téléchargement. Cela ne paie pas le webmastering, mais tout au plus l’hébergement/nom de domaine.

-Autre aspect financement, du point de vue marketing : Faire du payant apparaître comme du « gratuit ». C’est tout l’art de l’Incentive, stratégie marketing très utilisée actuellement. On pourrait évoquer deux cas concrets : – Les sites proposant de faire son site gratuitement  et les applications (de type partage, social etc.). Les uns comme les autres ont des modèles économiques bien rodés. Les premiers imposent des publicités par exemple sur le site hébergé, qu’il faut payer pour masquer, ou bien des tonnes d’extensions que beaucoup trouveront utiles, voire indispensables à la longue, sans compter des « piqures de rappel » incessantes par mail. Pour les applications, le réflexe des utilisateurs sera de les considérer gratuites par essence. Mais bien souvent ces dernières sont issues des fonds de business angels ou de crowdfunding, et les fonds servent le plus souvent à faire connaître le site qu’à faire l’application ou le site lui-même… Une fois le trafic acquis, et les utilisateurs nombreux, on propose des fonctionnalités supplémentaires et au final on s’approche de solutions payantes. De manière générale sur internet rien n’est gratuit. Pensez toujours lorsque vous voyez des concurrents « quel est leur modèle économique ».

Mais tout ceci concerne le « on-site ». Le côté « off-site » est redoutable par son ampleur et ses marges de manœuvres, mais devient hors sujet. On évoquera donc pêle-mêle :

  1. La recherche d’une popularité réelle (lien « naturels ») ou factice (linkbuilding)
  2. La recherche d’une diversité dans les médias renvoyant au site (parfois avec 2 ou 3 niveaux intermédiaires)
  3. La recherche de moyens de promotions traditionnels (flyers, encarts presse, affiches, etc.)
  4. La recherche de moyens de promotions sur internet (vidéos, présentations (ppt…), documentations et leaflets PDF)
  5. L’utilisation d’infomerciaux (créer du contenu « utile » dans la même thématique mais renvoyant au site au final)
  6. La publicité on-line (Google Adwords et autres)
  7. Les jeux, concours, l’événementiel…
  8. Les techniques black hat…

Un sujet au cœur de l’expérience Viedoc Solutions.

 

 

Y-a-t’il un référenceur dans la salle ?

28 Fév 2014, Posté par D. Bocquelet dans Digital
SEO pour les nuls - Credits : moz.com

Le SEO n'est pas la tasse de thé de tout le monde - Credits : moz.com

Le fait d’avoir effectué un pré-sourcing récemment dans le domaine automobile m’a permis de constater à quel point les sites de ces entreprises étaient « mal chaussées » en matière de SEO, relevant 10 erreurs fréquentes.

Cette étude impromptue s’est basée sur un ensemble d’environ 1000 sites de différentes sociétés de l’automobile, depuis d’obscurs équipementiers de troisième niveau aux sites de constructeurs (près de 300 à l’heure actuelle), sites d’informations, blogs… Nous avons mis en place un système permettant de détecter et d’afficher le titre et la description pour simplifier ce travail.

1-Pas de description.
Sans doute la carence la plus flagrante de toute est le manque de remplissage des balises descriptives pour la page d’accueil, de type « content goes here » « description goes here » restants du CMS installé par défaut ou d’un webmestre quelque peu dilettante. Proportion : Un bon 50% des sites visités, mais souvent cumulés avec l’erreur numéro 6. La page d’accueil et son riche contenu se retrouvait reléguée au fond d’une arborescence au lieu d’être au premier niveau.

2-Pas de titre. Plus rare, mais néanmoins courant, et de manière surprenante, est le manque de balise titre remplie. La faute parfois à des pages par défaut affichant un flash servant de point d’entrée… Environ 15% des sites. Certains sites (près de 20%) combinaient les deux lacunes !

3-Balises non fermées. Dans certains cas (environ 10%), la balise titre (spécifiquement) n’était pas fermée correctement ou un caractère mal géré brisait la chaîne de termes employés dans la balise. Le problème est qu’un robot ne verra pas ou se termine le titre ou indexera une montagne de code peu utile. Ce type de bug est fréquent sur les CMS.

4-Balises mal utilisées. Dans certains cas des webmasters (ou webdesigners) peu au fait du SEO ont rempli la balise titre et/ou description de mots-clés à la chaîne, sans phrase construite ou d’accroche. Ce cas représentait environ 5% des sites.

5-Balises trop courtes. Près de 15% des sites présentaient un titre réduit à « welcome » ou « home » et une balise descriptive ne portant que le nom du site ou un slogan de quelques mots… Là encore, des CMS laissés « brut » au profit du style.

6- Homepage sur une URL exotique.
Sans doute provoqué par l’usage de CMS un peu datés, mal/pas configurés ou de type .asp/.jsp, certaines pages d’accueil affichaient leur contenu non pas sur l’url « normal » d’index par défaut (www.monsite.com) mais sur une URL exotique qui était en fait la création de la page d’accueil par défaut et sa redirection depuis le nom de domaine, de type : www:monsite.com/Gdfdf551_Node%gFModule/Main/#main/Gd445Jzeg-G4405ddg_Request?-04452_home
Pas vraiment SEO-friendly… Un bon URL rewriting est toujours utile. Ce cas de site se situait aux environ de 15%.

7-Homepage bourrée d’actualités. Au temps ou les webmasters ne juraient que par du « contenu frais en page d’accueil » en tentant d’émuler avec un site d’entreprise souvent statique par définition avec un blog, chouchou de Google, ce principe à fait quelques dégâts collatéraux. Certains sites n’affichent en effet que des actualités, parfois en deux ou trois types d’affichage sur leur page d’accueil, et pas forcément leur propres actualités ! Le problème le plus gênant se situe au niveau de l’utilisateur qui ne sait pas forcément ce que fait la société, et du SEO-même puisque le moteur n’a que des actus -souvent trouvées ailleurs- pour définir l’accroche du site dans les SERPs. Bien souvent il faut fureter à la recherche du « about us » pour avoir quelques informations de base. Ce cas est assez fréquent, jusqu’à 30% !

8-Portail en intro : Là encore, héritage de ce qui se faisait peut-être au tout début de la première bulle internet, beaucoup de sites n’ont qu’une page quasi vide avec quelques drapeaux pour s’orienter vers des versions locales « en dur ». Rappelons qu’une page d’accueil se devrait être bien remplie a priori et qu’il y a moyen de rediriger automatiquement selon l’ip de l’utilisateur, vers la partie du site /fr par exemple. Environ 8-10% des cas.

9-Site entièrement graphique ou en flash. Ces dinosaures du web sont encore bien là (environ 10-12%)… Bien évidemment dans ce cas est-il encore permis de douter de leur pertinence sur le plan du SEO ? Google lit le flash, c’est un fait, mais de manière désordonnée et par bribes, ce qui entraîne des surprises désagréables notamment au niveau des SERPs. Encore une fois, un site en flash ou tout graphique (textes en images, liens en images, etc.) n’a pas grand chose, voire rien, à donner à un moteur de recherche en termes de contenu… Si vous voulez du graphique, beau et animé passez au jquery qui est 100% SEO-compatible !…

10-Duplicate content. On ne présente plus cette erreur classique de débutants. Un même contenu sur /www.monsite.com, monsite.com, monsite.com/index.html, monsite.com/main/content/homepage.php et j’en passe. Peut-être 10% des cas, parfois même pour des sites importants comme http://byd.com/ et http://bydauto.com/…

Au final, bien des sites présentaient des problèmes de SEO (presque tout en fait), et ce dès la page d’accueil, ce qui n’inaugurait rien de bon pour le reste. Certains cumulaient même la moitié de ces points. D’autres (rares) affichaient même des dizaines de liens en bas de page de type casino/roulette, rachats crédits, assurance, produits de pharmacie ou voyance. Cela a permis de dater les sites également, dont certains semblaient « dans leur jus » depuis la première présence de leur société en 2000-2002. Sans doute seulement 10% du total étaient à la fois efficaces, solidement designés et SEO-proven (en général ceux des constructeurs hauts de gamme).

En conclusion le métier de référenceur attire sans doute toujours moins que celui de webdesigner et à de beaux jours devant lui, dans le business de la refonte de site ! …
Il faut aussi éduquer les clients pour ce qui est de l’utilité d’un bonne démarche SEO dès le départ et non après coup…

Les techniques du SEO black hat

13 Fév 2014, Posté par D. Bocquelet dans Digital

En SEO (Search Engine Optimisation) il y a clairement deux types d’agences professionnelles qui appliquent soit des méthodes « SEO white » (google) soit « SEO black hat », soit plus rarement les deux quand elles savent le faire, en fonction de la demande du client. Les professionnels du SEO font le distingo en effet entre des méthodes brutales « où le client en à pour son argent », meilleure place garantie pour des prix cassé, mais peu pérenne au final. Pour d’autres, qui sont près à y mettre le prix, les techniques white hat permettent de pérenniser un positionnement sur le long terme. Faire connaître un site internet requiert en tout cas de solides connaissances techniques pour son optimisation, mais le gros du référencement -n’en déplaise à google – se tient en dehors du site même. Outre les backlinks, et nombreuses manières de les obtenir, il y a également un certain nombre de techniques « borderline » ou black hat historiques qu’il peut être intéressant de connaître (juste pour son édification personnelle, google les frappe vite et fort.).

Achat de liens : Classique, mais comme c’est en général des annuaires par soumission auto, basse qualité, on à la quantité mais pas la qualité. C’est pire si c’est en beaucoup moins d’une heure. Toutefois la pratique du « webring » a été travestie et aujourd’hui des plate-formes identiques à ce qui se fait en annonce classique, des plate-formes, proposent de l’achat de lien avec rémunération au clic. Dans tous les cas, Google est nettement plus sensible aux liens payés ainsi qu’au guest-blogging commercial.

Achat de fans Facebook : Racheter une page Facebook populaire peut être très juteux surtout dans le domaine concerné (ex. vous faites une page Facebook sur le thème du Streetwear au travers des sneakers, et on vous rachète la page pour pointer sur un site qui en vends…)

Adresse email piège : Reprenant le principe des HoneyPot (spams arrivant sous des titres bénins ou camouflés par des personnes de votre weblist), ils vous attirent sur un site simplement pour booster sa popularité.

Adware : En principe un petit logiciel publicitaire (toolbar, etc) parfois spyware, installée à votre insu et installée sur votre navigateur en téléchargeant un autre logiciel. Font apparaître des popup et renvoie vers certaines pages web, « forçant » le référencement de ces dernières. Difficile à éliminer.

Auto-blog spamming : Cette technique bizarre consiste à profiter du contenu « naturellement spinné » de « généreux donneurs ». Il faut d’abord désactiver la prtection anti-spam d’un blog créé sur un nom de domaine et avec quelques posts sur un mot-clé porteur (jeux flash gratuit, viagra, crédit immobilier…). Puis laissez les spammeurs commenter allègrement. Ensuite parsez et moissonnez les contenus, supprimez automatiquement les liens sortants et republiez le tout. Du content gratuit.

Background spoofing : Technique préhistorique et maintenant universellement sanctionnée consistant à cacher des mots-clés pour accroître la crédibilité de la page (ne sont visible que des moteurs : Même couleur que le fond par exemple)…

Billet sponsorisé : Publi-reportage ou publi-blogging, un article « bénin » sur un blog populaire et parlant d’une marque ou d’un produit (le tout rémunéré). Souvent utilisé en e-réputation.

BotNet : Se dit d’un réseau de PC zombies utilisés pour envoyer des tonnes de spam ou cliquer sur des publicité adsense (fraudant la « popularité de l’annonce » et permettant d’en faire baisser le CpC)

Clic forcé : Obliger les internautes, pour obtenir une information, un lien, etc. de cliquer sur une bannière renvoyant à une site internet, créant de la popularité artificielle. Très utilisé sur les sites populaires de téléchargement et de streaming.

Cloaking : Une des plus ancienne technique serveur consistant à produire deux contenus pour des cibles différentes : Une page suroptimisée pour les moteurs et une autre page plus graphique pour les visiteurs. On peut également utiliser une adresse ou plusieurs adresses IP (on parle alors d’IP cloaking).

Content farm : Type de site suroptimisé pour le « contenu à la demande », produit du contenu pour chaque requête de l’internaute et profite de son ranking pour se rentabiliser par des publicités ciblées. Maintenant sanctionné par Panda.

Content spinning : Consiste à Modifier par le moyen d’un script un texte de base pour produire des centaines de variantes. Le but est ensuite de soumettre ces textes à autant d’annuaires pour faire du backlink.

Contenus cachés : Un autre grand classique, qui consiste à camoufler du contenu suroptimisé par les moteurs aux visiteurs « humains ». On peut ainsi cacher des liens javascript ou des mots-clés dans des balises alternative, le CSS, etc. Il est actuellement possible de produire une grande variété de contenus visible uniquement dans le code de la page grâce à l’avancement de techniques de programmation et d’affichage complexes.

Cybersquatting : Utilisé par les « coucous » du web, il consiste à déposer ou récupérer (plus rare) un nom de domaine très populaire pour profiter de la notoriété de la marque et ainsi booster le référencement de son contenu. Devient rare. La plupart des marques déposées ont actuellement réservé presque toutes les déclinaisons de leur nom de domaine, et n’hésitent pas à attaquer à bon droit même pour un nom de domaine phonétiquement proche.

Domaines jetables : Créer des sites de micro court terme sur des mots-clés populaires et les abandonner ensuite lorsque la tendance disparaît. Quelque chose comme tigerwoodssexrehab.com par exemple. Ces sites peuvent servir de tremplin pour du backlink, à condition que ce dernier soit « nettoyé » avant.

Donations juteuses : Très souvent les sites recevant des donations affichent les liens des donneurs. Pour certaines applis/sites populaires, cela peut devenir fort juteux…

Email phishing : Quoique utilisé souvent pour récupérer des mots de passe et données confidentielles (hameçonnage), ces faux mails de sociétés connues (comme paypal) peuvent aussi servir à envoyer l’internaute sur un site redirigé (c’est moins inquiétant quand on ne demande pas de données spécifique mais une simple infirmation importante à consulter). Très proche : L’email Spoofing.

Spyware : Plus utilisé en dark marketing qu’en référencement, ce petit logiciel est souvent installé avec une toolbar ou un logiciel bénin, à l’insu de l’internaute dont les requêtes et comportements vont être regardés à la loupe et envoyés à une centrale pour analyse, et optimiser ensuite le ciblage des campagnes.

Extracteur adresses email : C’est un petit utilisé utilisé pour « aspirer » (on dira détecter) les adresses mail d’un site entier (forum, etc) en les récupérant par des techniques souvent de hacking. Le but derrière est d’avoir des listes d’adresses mail valides, d’une rentabilité juteuse en webmarketing ou en spamming. Sachant que l’on peut renvoyer les adresses visées sur son site, cela peut être évidemment une technique de SEO prisée… Il est possible aussi d’utiliser des logiciel qui créent des combinaisons d’adresses ou directement vers des adresses type « contact@… » sur des millions de sites à fin également de spamming.

Farm links : Utilisant l’appétit naguère bien connu de google pour les liens entrant et sortants, ces sites ont un contenu sémantique entièrement ventilé à travers des liens, très nombreux, de manière à maximiser le poids de leur contenus.

Faux avis consommateur : Utilisé en e-réputation inversée à des fins indirecte de NSEO (negative SEO) : Donner des avis défavorables sur une entreprise/produit sur des forums, commentaires de blogs, etc. sous de nombreux comptes bidons et en masse. Condamné mais difficile à prouver (sauf par le tracking d’ip) et maintenant utilisé par certaines sociétés peu scrupuleuse pour couler leur concurrence. L’inverse est aussi vrai…

Folksonomie et UGC tagging : Par UGC on entends « user generated content », ceux qui utilisent bien obligeamment votre site internet, et reprennent vos contenus pour partager en les taggant (en y associant des mots-clés) sur les réseaux sociaux, aussi bien images que textes.

Google bombing : Utilisé plus souvent négativement que positivement, il consiste à faire remonter une page/site par association de mots-clés (requête), via une galaxie de sites et de liens dans le coup. Exemple : Celui qui a consisté à associer à la requête « miserable failure » le site de Geroge Bush en premier résultat, ou « trou du cul » la page facebook de Nicolas Sarkozy… Très utilisé en NSEO sous différentes formes.

Hoax : (« canular ») Faux messages pseudo-officiels ou simples rumeurs circulant par mails, twits et autres, consistant à dénigrer souvent un produit/marque. Très utilisé en E-réputation inversée.

Livraison d’IP : Offrir un contenu approprié localisé à ceux provenant d’une adresse IP spécifique au pays. Offrir à l’utilisateur le choix qui va bien. Shopping.com fait un excellent travail ici…

Mass following : C’est une technique artificielle de création d’audience via twitter en créant une masse de « suiveurs » ou d’abonnés bidons, créés par une multitude de comptes factices. Les informations « populaires » sur twitter sont ensuite plus facilement reprises par d’autres médias et google.

MFA : Ou « made for adsense ». Ce sont des sites au contenus pauvre pour l’internaute mais parfaitement optimisé à tous les points de vue de manière à capter les requêtes des internautes pour que les visiteurs repartent en ayant cliqué si possible sur un lien adsense. Panda demande actuellement plus de contenu « valable » (au détriment de son propre revenu !…).

Mouse trapping : Technique ancienne qui consiste à piéger l’internaute sur le site en désactivant par exemple l’action du « prédécent », la touche de retour, ou masque la barre d’adresse, forcer la redirection, etc. Actuellement sanctionné. C’est un moyen d’abaisser artificiellement (de manière très rustique…) le taux de rebond du site/page.

Opt-in passif : Se dit d’un choix précoché par exemple lors du téléchargement d’un logiciel par clic forcé ou plus souvent par formulaire. Cette case coché contient souvent « et j’accepte de recevoir les emails commerciaux de nos partenaires » Condamné par la CNIL en principe. Cela peut être un moyen de vendre des annonces par le biais d’une application populaire, mais aussi sur de nombreux services et annuaires.

Optimisation automatique de page : Certains CMS d’Ecommerce ont la faculté de créér des pages un peu comme les fermes de contenu, en optimisant leurs balises description, URL et keywords en fonction de la requête de leur moteur de recherche. Un concept qui peut être repris pour n’importe quel site de contenu, plutôt que de sortir une liste d’articles proches de la requête…

Parking de nom de domaine : Se dit d’un nom de domaine acheté puis abandonné par son propriétaire (non renouvellé). Le « parking » va consister à héberger le nom de domaine pour revente sur un site de type MFA pour garder le poids du référencement associé intact autant que possible, et ainsi de proposer un prix de revente très supérieur.

Piège à clics : Un autre moyen pour des annonceurs peu scrupuleux d’augmenter le trafic sur leur site/page, en plaçant dans leur popup d’annonce un faux bouton « fermer » ou assimilé. En pensant fermer l’annonce on est en fait redirigé vers le site.

Pixel invisible : Une image d’un pixel carré quasi invisible et souvent présente dans les mails et qui provoque une requête serveur informant les emetteurs du message du comportement de l’internaute (utilisé en médiamétrie, etc) : C’est une composante d’analyse très commune en e-marketing.

Post sponsorisé (et spamlinking) : Pratique très utilisée en SEO consistant à multiplier des backlinks sur des blogs permettant les commentaires plus ou moins modérés en affichant dans sa signature le lien de son site (voir plusieurs avec la technique de la « guirlande »).

Site Under : Une pleine page qui s’affiche derrière une page visitée « normalement » (sorte de popup d’annonceur moins voyant). C’est un autre moyen de multiplier les affichages et les liens vers son site. Souvent utilisé pour faire connaître des branches de son activité.

Slamming : Technique qui peut être utilisée pour récupérer un nom de domaine jugé « juteux » sur le plan du SEO en envoyant à son propriétaire un faux mail ou courrier expliquant que le nom de domaine arrive à expiration et l’invitant à le renouveller sur une autre plate-forme (de fait l’usurpateur récupère ce nom à son profit).

Spamcomment : Consiste à faire passer un lien ou un message souvent spinné dans un blog ou forum en général peu modéré pour faire « mousser » son référencement sur des requêtes particulières.

Spam referer : Technique de fabrication artificielle de popularité par un script ou logiciel le plus souvent, provoquant la simulation de visites venant d’un site internet à mettre en avant. La duperie vient en fait du fait que ces liens d’une site référent n’apparaissent que dans les résultats d’un indicateur de trafic : Le webmaster découvrant ce pseudo-trafic venant d’un site va alors visiter la page en question, et donc augmenter « pour de vrai » sa popularité.

Spamming de suggestions : Il s’agit d’insérer un résultat (une suggestion) dans la liste déroulante des suggestions de google de manière forcée. Soit pour booster la popularité de son site, soit pour faire du NSEO d’un concurrent. Les techniques qui permettent d’y parvenir passent par différentes techniques mais la plus simple est encore d’engager des « petites mains » en masse pour taper la requête associée. Rien ne sert de le faire soi-même, google détecte la provenance « physique » de la requête.

Splog : Un splog est un blog au contenu pauvre pour l’internaute mais suroptimisé pour google (notamment bourré de liens sémantiques riches et contenus spinnés en raccord avec le nom de domaine et/ou de requêtes les plus populaires). Le but est de truster les première places pour soit faire du lien vers un site « légitime », soit se monétiser par la publicité. Les blogs mis à jour fréquemment sont naturellement optimisés SEO.

Supercookie : Indirectement liés au SEO (plutôt au ciblage marketing), ces « cookies spéciaux » sont physiquement proche des cookies standards et peuvent être supprimés aussi facilement du cache de votre navigateur, mais sont utilisés pour tracker votre comportement.

Redirections 301 : Rediriger ses pages périmées vers des versions plus récentes ou vers la page d’accueil pour en garder le « jus ». Lors d’un déplacement vers un nouveau domaine les utiliser bien sûr de la même manière.

Texte caché (CSS) : Les scripts jquery très utilisé actuellement permettent parfois de « cacher » du texte entre différents éléments, qui apparaît dans le code (crawlé donc), mais ne se voit pas.

Typosquatting : Le fait de déposer un nom de domaine très proche d’un autre nom de domaine très populaire ou de très gros trafic (ex. goohle.com) en exploitant les fautes de frappes les plus courantes des internautes pour attirer du trafic. La tromperie s’accompagne parfois d’une habillage très proche sinon quasi-identique du site visé, un peu comme pour le phishing, pour que l’internaute ne reparte pas immédiatement.

User agent cloaking : Cloaking à partir de l’identification du user agent d’un robot d’indexation d’un moteur (La chaîne de caractères qui dans le cadre du protocole d’échange Internet et permet d’identifier l’application demandant des contenus à un serveur web..). La technique de l’IP cloaking est souvent préférée car moins surveillée/sanctionnée. La sanction d’un site pris en flag’ de cloaking peut aller droit au blacklist.

Webscrapping : Créer des versions miroirs de sites populaires par « pillage et reconstruction » pour profiter des similarités et divertir les requêtes des internautes vers vous. Avant de se faire pincer, revendre les sites aux propriétaires des sites « scrappés » pour qu’ils récupèrent leur jus.

20 ans d’Internet en France et 10 ans pour Viedoc…

10 Fév 2014, Posté par D. Bocquelet dans Digital

A l’occasion des cinq ans de Viedoc Solutions et 10 pour VIEDOC en septembre 2015, c’est l’occasion de fêter son deux-centième site internet. Un premier site personnel était hébergé à l’époque sur Wanadoo. Puis bien d’autres ont suivis, qui ont vu défiler différentes technologies, avec a chaque fois des spécialisations exponentielle, de plus en plus pointues au fur et à mesure que cet univers virtuel d’étendait sur la planète. Un « big bang » reflété par l’explosion de la plus grosse bulle internet en 2000 (on passait de quelques millions à plus de 200 millions d’ordinateurs connectés dans le monde en quelques années). La France a accusé un retard sensible, du fait qu’elle était paradoxalement l’une des premières dans ces technologies avec le Minitel. Un retard bien rattrapé depuis. La France est en pointe notamment au niveau des applications et objets connectés comme démontré au salon de Las Vegas au mois de janvier dernier. La France n’a pas à rougir de sa position dans ce domaine, avec selon une étude récente, près de 60% des commerces

Sur le plan du web donc, tout a été fait ou presque par nos services, depuis les simples pages de « présence » sur le web, aux logiciels SAAS comme RSS sourcing et RSS Intelligence. Des e-commerces (sous presque toutes les architectures connues), des CMS (idem), des forums, annuaires, moteurs de blog, portails, nous avons tout fait ou presque, tout testé, tout expérimenté. Nous avons appris de la concurrence en matière de marketing, maîtrisé les dernières technologies tout en tentant de les rendre accessibles aux plus grand nombre d’internautes. Heureusement qu’actuellement, les nombreux hacks destinés à l’éternel cancre de la classe, Internet explorer, malheureusement populaire, s’estompent tant la qualité et la « compliance » avec les standards du W3C s’améliorent, en même temps que le parc informatique des sociétés (notre cible première). En effet, faire du web pour les particuliers n’est pas très difficile, ces derniers évoluant en général plus vite sur des machines récentes, avec des navigateurs à jour.

L’un des bouleversements les plus apparents du web récent concernent d’une part le jquery -famille de dérivés du javascript permettant des effets graphiques rivalisant avec flash, dans une technologie non « embeddée » (non séparée du code du site web), offrant un clair avantage au plan du SEO, et d’autre part le design « responsive », adapté à tous les médias possibles, en l’occurrence tablettes et smartphones. Le marketing a évolué, aujourd’hui on va droit à l’essentiel, et plus personne n’aurait l’idée d’intituler sa page d’accueil « bienvenue sur mon site ». Toutefois nous avons pu aussi voir que le SEO a encore de beaux jours devant lui vu le nombre de sites d’entreprises construits sans les plus élémentaires règles de référencement. A savoir n’ayant sur leur page d’accueil, ni titre, ni descriptifs. La faute aux webmasters, qui sont en réalité pour leur immense majorité des infographistes devenus webdesigners, et se faisant passer pour webmasters.

En réalité, le webmaster actuellement se doit d’être un homme orchestre, et bel et bien un chef d’équipe, tant les compétences nécessaires se sont spécialisées. Pour une grosse agence web, cette équipe comprend : Des développeurs (avec des sous-spécialités réseaux, data, applis mobiles, jquery, sans compter la base php-mysql…), un(e) infographiste pour le maquettage et un (des) webdesigner(s) spécialisé CSS et php/html pour l’intégration; des référenceurs on-site (technique, contenus) et off-site (ex. social manager), un(e) spécialiste E-marketing qui chapeautera cette partie, en charge de la com et du rédactionnel en fonction du cahier des charges client…

Et malheureusement rares sont les « webmasters » qui disposent naturellement de toutes ces compétences. En réalité certaines sont quasi-incompatibles. L’expérience nous a montré les fortes divergences de vue, parfois tendues, entre les infographistes, développeurs/intégrateurs et le SEO… Chaque site est en réalité un compromis qui tente d’arriver à 99% de ses objectifs en tirant le meilleur partie de toutes ces contraintes. Chaque site est une quadrature du cercle et le webmaster doit coordonner ces divergences et tenter d’obtenir le résultat final le plus proche des objectifs et du cahier des charges fixés par le client.
C’est en tout cas comment viedoc voit les choses. Passez nous voir à l’occasion !

La conception de site web (première partie)

07 Fév 2014, Posté par D. Bocquelet dans Digital

Internet en France à 20 ans. (Wanadoo et consorts ont commencé à proposer leurs services en 1994). La philosophie derrière la conception de site web depuis cette époque reste majoritairement technique, pluri-disciplinaire, avec cette question :

– A quoi doit servir ce site internet ?
Car aujourd’hui il est impensable de se lancer dans la création d’un site web sans avoir d’autre ambition que simplement « être présent ». La « présence » en effet était la préoccupation lors de l’âge d’or, de la première bulle internet pour la plupart des entreprises. Le web a évolué, et on est entré depuis des années dans la génération des « sites-outils ». Le chiffre d’affaire record de l’E-commerce à pleinement démontré la pertinence du web dans l’économie réelle.

Donc avant de se lancer dans toute démarche visant à créer son site internet, il faut bien se convaincre que c’est non seulement sa présence que l’on affirme mais aussi un puissant instrument de générations de prospects, voire de clients directs dans le cas de l’E-commerce. La plupart des sites internet étant aujourd’hui des blogs, des E-commerces, et des CMS pris au sens originel, ils ont tous comme point commun d’être basés sur une architecture existante. A savoir, une base de fichiers techniques se raccordant dans 99% des cas à une base de données. Le grand avantage de ces formules toutes prêtes -qu’ont bien compris les agence de communication- était de confier le soin au client et utilisateur final, d’effectuer lui-même ses mises à jour, tâches chronophages et difficiles à quantifier -donc à chiffrer- pour lesdites agences. Il faut ajouter un aspect supplémentaire de l’ère post-Panda, la montée en puissance du content marketing, qui fait du site devenu blog une machine à générer des leads.

En règle générale ces sites ont une base en php, avec des éléments séparés typiques tels que la partie haute et basses, répétées sur toutes les pages (généralement appelées « header » et « footer » respectivement), un corps central de contenu polyvalent, et aussi des « templates » maquettes d’habillage graphique passant par une feuille de style (css) et d’autres éléments. La base de données, qui contient tout (identifiants et mots de passe cryptés, noms, informations d’usage, et surtout contenus textuels de toutes sortes).
Parmi les points à aborder lors d’une installation, c’est souvent la version de php installée sur le serveur de destination qu’il faut connaître, sous peine de télécharger la dernière version du CMS et se rendre compte de son incompatibilité. Pour le reste on doit être en mesure d’accéder à un manager sur le serveur pour créer une base de données qu’il suffira ensuite de « raccorder ». Les installations de CMS modernes sont actuellement assez simple, il suffit que remplir quelques champs pour qu’elles prennent effet.

Il existe également un second type de site dont l’idée avait été lancée il y a plus presque 20 ans par les « portails de blogs » et hébergeurs. L’idée est que vous aviez un « espace » personnel avec un sous-domaine. Le « site » à proprement parler était le portail entier, sur lequel vous ne louiez qu’une fraction de l’espace. L’avantage des généreux hébergeurs ? Déjà à l’époque, du contenu donc du trafic, et de la publicité ciblée. L’expérience nous a montré qu’un site en sous-domaine chez un de ces portails de type « site gratuit » était en général le pire choix pour faire du référencement correct.

Ce qui nous amène au troisième type de conception de site web, celui que vous construisez de A à Z. Ce genre de site historique est souvent condamné aux extrêmes entre les sites faits sous wordpress ou pire, sous word, aux sites très hauts de gamme et entièrement sur mesure pour lesquels ils n’existent ni base technique ni templates. Entre les deux, il y a une galaxie de sites basés en tout ou partie sur des CMS et très modifiés. Le site sur mesure -disons-le clairement- est de loin l’idéal s’il on recherche la perfection en matière de site web. Il peut être réellement optimisé sans avoir à torturer une base existante. Tous les CMS ne sont en effet pas égaux en termes de rapidité de chargement, simplicité d’utilisation, et performances SEO. Il est donc bon de souligner que que seul un site maîtrisé de bout en bout sur le plan technique et contenu permet d’arriver à 100% de ses objectifs.

Voici donc le préalable à la conception d’un tel site web (réalisé par vous ou par un véritable webmaster; pas un installeur/habilleur de CMS):
Se poser, en tout premier lieu, la question de son utilisation finale.
-Va t’on faire de la vente ? Dans ce cas on s’oriente vers un E-commerce, de type Prestahop, Magento, et consorts.
-Va t’on faire un portail communautaire ou site d’association ? Dans ce cas un CMS complet de type Joomla, Drupal, et consorts, feront l’affaire
-Souhaite t’on faire simplement un forum ou un annuaire ? Dans ce cas aussi il existe des CMS spécialisés, respectivement comme phpBB et FreeGlobes…
-Souhaite t’on faire un blog simple ? -Blogger par exemple est une bonne option.
-Souhaite t’on faire un site d’entreprise et blog à la fois ? – Le choix le plus évident semble WordPress…

Etc. En simplement énumérant les différentes finalités du site on est amené à utiliser l’une de ses bases techniques, modifiée le cas échéant à grand renfort de modules et de personnalisation. Pour tous ceux qui ne rentreraient pas dans ces cases, le sur mesure reste une bonne option, si ses finalités sont connues.
S’il s’agit d’un simple site de présentation « about us », « services », « tarifs/prestations », etc. avec formulaire de contact pour capter les prospects, la plupart des CMS peuvent le faire. Mais dans certains cas, un site fait entièrement « à la main » est toujours utile.

20 best forums CMS ever

En effet, sur un plan purement technique, la conception de site web sur mesure est considérés généralement comme générant des sites plus rapides (nonobstant la qualité du serveur et de sa distance), tout simplement parce qu’ils sont « expurgés » alors que les CMS pour la plupart sont de grosses machines devant intégrer beaucoup de possibilités à la base, ce qui génère parfois un code assez lourd côté internaute, quoique les meilleurs aient fait des progrès nombreux à cet égard. Heureusement les modules permettent d’alléger ces noyaux, dans une certaine mesure. Gagnants également sur le plan SEO, car les CMS par défaut génèrent souvent des URL assez indigestes et ne sont pas toujours optimisé questions balises. Enfin, gagnants sur le plan de l’habillage du contenu interne (donc in fine, de l’efficacité marketing), car sur la plupart des CMS on est condamné aux possibilités laissées par l’éditeur Wysiwyg pour sa mise en page, qui de plus peut générer des balises redondantes ou inutiles, ou pire, supprimer des inserts de type vidéo ou audio. Un site sur mesure accepte lui du code « brut » (quoique’il puisse être fait en mode visuel sur Dreamweaver ou assimilé, puis corrigé en mode code), donc au final sans surprise et assez léger au final.

Une fois ces préliminaires techniques vus et fixés, reste la partie « marketing ».
Seconde grande question, par forcément liée à la première : A qui se destine ce site web ?
Cette question sous-tend deux points de forme et un point technique.

  • Sur le plan graphique. On ne s’adresse pas à tous avec les mêmes codes visuels, selon qu’il s’agit du sexe, de l’âge, ou du profil socio-économique de chaque prospect potentiel.
  • Sur le plan rédactionnel. De manière plus directe, et sans  même penser au référencement, comment s’adresse t’on à ces prospects potentiels ?
  • Enfin sur un plan technique. On n’aura pas les mêmes fonctionnalités ou manière de fonctionner selon ces mêmes profils. Il faudra adapter le site en conséquence.

Une fois que l’on aura fixé donc la liste des profils visés par le site internet (les ados, les seniors, les femmes, les PME ou grands groupes, les associations, etc.) et en affinant ces profils au besoin on obtiendra une ligne directrice solide aussi bien dans le fond que dans la forme. Ce sera la pierre angulaire du maquettage et de la recherche des textes à fournir, puis au final de la mise en page et du fonctionnement. Dans presque tous les cas de figure, il faut sur le site un cheminement clair et sans bavure vers le « call to action » en général un bouton bien en vue envoyant vers un formulaire d’inscription. Je ne reviendrai pas sur l’utilité d’une telle démarche. Ces prospects sont volontaires, intéressés, et ciblés. C’est du pain béni pour la prospection commerciale. Des doutes pendant la conception de vos maquettes et de vos argumentaires ? – Regardez la concurrence !

Troisième partie : Le SEO (référencement)

Une fois ce travail de marketing fait, il faut convertir ces contenus « textes » en contenus « pages ». Et c’est là que les connaissances en SEO entrent en jeu. Chaque page doit en effet contenir :

  1. Un contenu unique et bien identifié (voir aussi fonctionnement).
  2. Un URL très finement ciselé en fonction des mots-clés les plus importants du texte
  3. Un titre (balise) également bien dosé, souvent court (il doit accrocher, être efficace car il apparaît dans les SERPS*)
  4. Une balise descriptive (très importante car elle doit donner un complément utile et également aguicheur, quitte à passer le contenu SEO plus en profondeur)
  5. Des mots-clés (optionnel) très peu utilisés, mais chaque pourcentage compte. Pas d’abus.
  6. Un balisage de titres et sous-titres clair et bien segmenté (H1, H2, H3, <strong>, etc).
  7. Un texte mariant efficacité marketing et SEO (les mots-clés importants doivent y être !). Pas de redites si possible, clair et concis.
  8. Un contenu visuel en rapport, optimisé, de même que les liens (alt, title, nom de l’image, etc).

La suite avec la seconde partie…

Le (véritable) futur du Web

14 Jan 2014, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

Des bases immuables :

Le Web semble rivé sur les mêmes bases depuis la première bulle internet de 1995 à 2000. Outre les modes de présentation (Le flash, l’arrivée des d’un E-marketing sérieux, du contenus trois points, des carousels, puis du jquery), les fondamentaux d’un site internet se sont bien ancrés sur le long terme autour de pages de contenus desservies par un menu principal et des liens secondaires. Derrière cela on recoupe 99,9999% des sites existants. Le SEO (référencement) puis le SMO (référencement sur les réseaux sociaux) ont lissés quelque peu les usages en matière de conception technique, de la même manière que l’ergonomie du web est arrivée a maturité.

Un web lissé et uniformisé :

Un bon exemple de cela est la manière dont les sites E-commerce sont construits, pas seulement parce qu’ils utilisent les mêmes architectures à la base (Prestashop, Magento, Thélia, etc.) mais aussi parce que l’on souhaite de l’efficacité avant tout et que l’on souhaite présenter à un client le moyen de trouver rapidement ce qu’il souhaite (et d’acheter rapidement !). Un internaute qui cherche comment passer commande provoquera des abandons, de même par exemple qu’une originalité dans la présentation qui dérange comme par exemple un choix de police/fonds original mais moins lisible, etc. Des habitudes sont prises en étudiant la concurrence qui aboutissent à des modèles quasi intangibles. Les graphismes changent mais tous les liens d’interaction les plus fonctionnels pour ce type de site seront rigoureusement à leur place. Ce sont donc des impératifs de bon sens marketing qui « lissent » le web.

Une interactivité qui s’épuise :

Certes, la puissance des ordinateurs augmente, les navigateurs se modernisent, mais les médias se sont également multipliés (tablettes, iphones) et ont vite pris de bonnes part du marché. Les gagnants de ce jeu ont établi des bases standardisées dès le départ de manière à incrémenter le plus d’applications possibles, gage de leur polyvalence d’usage et donc d’intérêt durable pour les internautes. Les iphones et tablettes ont su passer de l’étape cruciale de « gadgets technologiques » à un usage quotidien accepté à part entière. Or, les technologies employées sont en nombre restreint, et doivent s’accorder avec celles régissant le monde technique du web « courant ». Après le dégonflement des possibilités du jquery du fait d’une difficile évolution technologie du navigateur encore le plus utilisé, Internet Explorer, les internautes ont tout simplement renoncé à utiliser toutes les possibilités offertes par ces scripts dérivés du javascript pour que leur contenu soit visible du plus grand nombre. (Exemple : Le fait de « glisser-déposer » intuitivement une image dans une application depuis une fenêtre de son PC au lieu de parcourir classiquement son arborescence, ou bien de pouvoir déplacer librement des objets dans l’espace de la page). Le plus grand fautif en la matière étant le lourd, typique réseau d’entreprise, qui migre beaucoup plus difficilement en particulier par temps de crise, et où se trouvent les internautes-prospects les plus intéressants !

Le second frein aux évolutions technologique du web est la complexité des sites récents qui doivent, en plus de gérer une cohorte de navigateurs aux technologies parfois limitées, intégrer un aspect « responsive » dans leur design : A savoir compatibles avec les iphones et tablettes. Enfin le poids de ces contenus purement technique (c’est du code) se fait au détriment de la vitesse d’exécution, synonyme de lenteurs d’affichage, de réponse, et de taux de rebond ou d’abandon des internautes ce qui reste évidemment rédhibitoire dans une approche E-marketing. On a tendance donc à utiliser ces effets avec parcimonie et après les avoir rigoureusement testés.

Enfin, que peut-on inventer de plus à partir d’un écran 2D ? Pas grand chose en fait. On continue à cliquer sur des liens pour accéder à des contenus ou provoquer une réponse du site. Reste que derrière cela les technologies de bases n’ont pas évolué depuis plus de vingt-cinq ans : Ce sont les même protocoles, hérités de l’ère de l’internet filaire téléphonique.

Une révolution se prépare.

Pour préciser ce titre, il ne s’agit pas de « futur » à courte portée (5-6 ans), mais bien d’anticipation à long terme. Il ne s’agit pas d’empiler les nouveautés javascripts pour tenter de rendre les usages de l’internaute encore plus ergonomiques, mais bien d’apporter une vision de l’internet totalement nouvelle. Enfin il ne s’agit pas d’une plus grande « intelligence » du web (le fameux web 3.0 ultra-sémantique) tourné vers le bénéfice des marchands qui pourront cibler leurs prospects avec encore plus de précision, mais bien d’un véritable révolution d’usage et d’apparence : L’irruption d’une vraie 3D avec les moyens de l’exploiter.

Et cette-ci va arriver de deux manières :

– Dans votre vie quotidienne, hors du bureau, sous la forme de la réalité augmentée, avec une série de lunettes (à commencer par les google glass) qui dans leur forme primitive peuvent être assimilées à des gadgets mais entraîneront rapidement une véritable révolution des usages. Il vous sera possible en effet de voir en 2d des informations sur des verres recouvrant tout votre champ de vision. Un effort mental sera nécessaire pour que les yeux assimilent ces deux réalités comme un tout et interagissent avec lui sous une forme qui reste encore à déterminer par les usages. Le feedback permis par la miniaturisation des caméras et projecteurs, le tout connecté a internet en très haut débit et alimenté par un puissant processeur, permet (déjà) de transformer n’importe quelle surface neutre en surface d’action pour y projeter des visuels ou tout éléments d’interaction comme un clavier… On peut donc par exemple composer un numéro de téléphone sur sa main et appeler. Reste à intégrer des capteurs de mouvement pour détecter la danse des mains et des doigts dans l’espace, ce qui existe déjà également à cette paire de lunette pour effectuer des actions virtuelles. Cela est pour l’instant limité à des usages scientifiques de manipulation d’objets 3d.

Le système de manipulation 3d « mains libres » créé par Elon Musk. La création aujourd’hui c’est un mix de gestuelle calibrée sur Leap Motion, casque oculus rift, et impression 3D. Les gains de productivités sont énormes.

Dans votre vie au bureau, par cette fois la substitution de deux réalités. Celle d’une interface en 3D qui devient un nouvel environnement de travail à part entière, une réalité virtuelle « intégrale ». Celle-ci existe dans les faits à titre expérimental depuis des années et se traduit sous la forme d’un casque opaque projetant un environnement visuel et sonore cohérent en temps réel à l’utilisateur. La première application dans ce domaine se trouve dans les jeux vidéos et une société comme Oculus semble sur le point d’inaugurer un standard en la matière pour une future commercialisation massive. Or, si l’on peut modéliser un environnement 3d répliquant un environnement « réel » (ex. montagne) avec difficulté (puissance de calcul limitée) on peut à priori plus facilement répliquer une environnement de travail fonctionnel et artificiel.

L’avantage d’un tel environnement ? On utilise ses mains en entier ou partie et ses doigts (voir plus haut) pour déplacer des éléments, pointer dessus ou les faire glisser en utilisant les doigts de telle manière que les possibilités d’interaction sont bien plus étoffées qu’avec un clavier classique. Lorsque les mains et les bras sont posés sur un bureau de la même manière qu’aujourd’hui, la localisation dans l’espace est encore plus simple. On peut d’ailleurs imaginer que sur le plan technique, la « sphère d’interactivité » limitée des bras et mains sera bien localisée et facilitera le développement d’applications et la vitesse de calcul qu’avec une position debout et mouvante. Oubliez donc le ballet manuel de Tom Cruise dans « minority report », on est déjà un stade plus loin. L’autre avantage d’un environnement 3d est que vous disposez bien entendu d’un « écran » de travail et d’action potentiellement à 360°. En réalité il sera sans doute plus limité par les limites de fatigue de rotation du cou et de la fatigue oculaire liée à la vision périphérique…

La science-fiction est souvent un laboratoire d’idées sur ces sujets. Toutefois « Minority Report » de Spieleberg (2002 ) est déjà obsolète par l’usage des gants que porte Cruise pour « gratter » les images affichées en 2d. Des capteurs de clavier permettent aujourd’hui de s’en passer.

Enfin une telle interface restant virtuelle, elle serait à même d’opérer en alternance avec la réalité augmentée, grâce à des lunettes se prolongeant jusqu’aux oreilles pour l’environnement sonore et certainement moins fatigantes à porter et plus pratiques qu’un casque. On pourrait donc travailler avec la même efficacité quelque soit sa localisation physique, le travail serait donc plus « nomade » que jamais, ou bien se servir d’un environnement alternatif dans sa vie quotidienne, passant de l’un à l’autre en fonction de ses besoins et selon les avantages des deux formules. En matière de « bulle » de calcul étendue rien n’empêche en effet, après calibration physique de l’utilisateur, le même type d’interaction dans un environnement en réalité augmentée, matérialisant par exemple ses éléments d’action par superposition dans un espace réel, les manipulant au besoin avec les bras. Le futur de l’interactivité sera gesticulant et fera penser à des concours de mimiques…

Et le web dans tout ça ?

Il deviendrait logiquement un univers en accord avec ces nouveaux usages. A savoir, les sites eux-même deviendront également « panoramiques », conçus pour fonctionner à 360°, des univers semblables à des pièces dans lequel on pourra évoluer comme pour un bâtiment. Les informations s’afficheront sur les « murs » vus en perspective déformée pour une meilleure visibilité et des éléments volants. Ils seront plus interactifs que jamais. Avec la multiplication des standards de connexion (cela à commencé avec l’inscription automatique via twitter ou facebook), votre présence seule sur un site sera notée et vos paramètres pré-enregistrés. La publicité sera également plus personnalisée et fine que jamais en fonction de profils déterminés par une analyse comportementale très poussée et reposant sur des modèles types en fonction des données récoltées : La psychologie au service de la réclame.

La scène du contrôle virtuel de Zion (Matrix 3 des frères Wachowski) est sans doute encore plus proche dans sa traduction graphique de ce que seront le travail virtuel au quotidien et l’exploration du web dans les années 2025-2050.

La grande inconnue sera l’ergonomie des lieux, à savoir par exemple quels mouvements seront nécessaires pour avancer (tourner c’est induit par les mouvements naturels de la tête). Mais la plupart des actions sur des « objets » dans l’environnement seront sans doute dictées par un usage, là encore instinctifs des mains avec des objets réels, et quelques spécificités pour des actions impossibles à retranscrire de manière « naturelles ». Les webmasters ne devront donc plus être seulement des graphistes 2D mais bien 3D, de manière à pouvoir personnaliser des objets « flottants » types et d’y inscrire des fonctionnalités supplémentaires. La puissance des micro-processeurs continue à progresser, et on l’espère la standardisation forcée par la complexité croissante des sites internet vont permettre d’incrémenter e nouveaux effets bien plus impressionnants que les actuels artifices permis par le language jquery.

Enfin, ces prospectives ne doivent pas masquer deux facteurs importants : La charge imposée en terme d’échanges, de calcul et d’affichage en temps réel de ces données va nécéssiter non seulement une nouvelle technologie de développement (exit les vieux tuyaux et les solutions en javascript, php-mysql) et une puissance de calcul infiniment supérieure à ce qui existe actuellement, probablement venant de la maîtrise de l’informatique quantique.

Calibrer son poste de travail.

Concrètement l’interactivité à son poste de travail ne sera possible qu’après une phase de « calibration ». Chaque individu étant différent, il faut imaginer définir une sphère contenant des éléments virtuels sur lesquels il faudra interagir. Les coordonnées seront enregistrées pour chaque action via feedback avec la projection de manière à définir la juste position des bras et des mains par exemple. C’est un système dérivé de ce qui existe déjà dans la motion capture. Outre un clavier virtuel, cela sera sans doute la somme des interaction déjà présentes pour l’utilisation d’écrans tactiles, auxquels s’ajouteront des gestes spécifiquement optimisés pour la troisième dimension. Voyez Leap Motion qui est un logiciel pionnier en la matière, quoique encore très imparfait. Comme toutes les application pionnières on reste limité à un certain nombre d’applis compatibles, où figurent néanmoins Le New York Times et Google Earth. Un reportage lachainetechno (01net TV)

Pour aller encore plus loin

L’horizon 2025-2050 c’est bien, mais l’horizon 2100 et plus c’est mieux. Si vous avez tenu jusque là, projetons-nous donc plus loin.

Le futur lointain du « web » sera depuis longtemps médiatiquement unifié: A vrai dire il n’y aura plus guère de séparation entre une utilisation « locale » (logiciels) et « online » (web). Les applications internet actuelles sont pour beaucoup des logiciels et la tendance en matière de complexité des sites web tend toujours vers plus de fonctionnalités, ce que nous faisons actuellement avec nos outils de veille, qui sont au départ des sites internet très améliorés (base technologiques semblables). Avec l’augmentation par un facteur de plusieurs milliards de la puissance de calcul les possibilités sont quasiment infinies. On peut très bien envisager qu’au prochain siècle, il n’y aura tout simplement plus de « jeux de mains », et ceci pour une bonne raison. La pensée va plus vite que les gestes. Plutôt que d’en passer par un clavier virtuel pour mimer le fait de taper sur des touches, il va sans dire qu’il est bien plus rapide de « dicter » mentalement un texte. En matière de télépathie les progrès sont constants aujourd’hui, notamment de manière à permettre aux paralytiques d’interagir avec leur environnement. On va donc vers un modèle d’interaction ou seule la pensée « courante » (la pensée claire qui précède immédiatement la parole), génère du contenu et interagisse, en collaboration avec la vision, sur des éléments graphiques 3D. Les gains de productivité issues d’une telle pratique seraient tout simplement faramineux. Une journée type de travail actuel de huit heure pourrait être réduite à quatre ou moins. Ce serait véritable l’âge d’or de la « civilisation des loisirs ».

Allons encore plus loin dans le temps.

A puissance de calcul surmultipliées, possibilités nouvelles, notamment la cartographie complète et en temps réel des interactions du cerveau. Quelles implications pour le web? Si on peut cartographier les interactions du cerveau on peut donc suggérer au cerveau des informations totalement factices. Cela permettrait par exemple de donner au cerveau l’illusion quasi-parfaite d’une réalité alternative (on retombe dans un scénario à la « Matrix »). Les sites web ne seraient donc que de petits univers créés de toute pièces, avec une gradation d’éléments d’apparence « réels » et d’autres purement virtuels mais fonctionnels. Mais quelle serait les implications de la vie ou du travail dans un monde totalement virtuel ? – Un gain de temps encore supérieur. En effet, en se passant des « auxiliaires » des cinq sens, alimentés à la base directement au niveau du cerveau, la rapidité du feedback entraîne une rapidité du traitement, avec auto-adaptation de l’horloge interne. Cela signifie concrètement que le temps vécu en virtuel passe deux, trois fois plus vite qu’en réel et donc permet de travailler notamment deux ou trois fois plus vite, avec les moyens vus précédemment qui font largement appel à la télépathie, mais cette fois « court-circuités ».

Au final on travaille donc bien plus rapidement encore, et bien plus efficacement qu’auparavant. Dans un univers virtuel par exemple, les contraintes d’espace-temps sont absentes, on peut assister à une réunion sans temps de transport. C’est son univers qui s’auto-adapte à ses propres besoins, et non plus le contraire. Physiquement le corps serait par contre maintenu en état d’immobilité totale proche de l’hypnose. Et le cerveau « surchauffe » et se fatigue bien plus vite dans ces conditions. On suppose donc d’une phase de travail virtuel serait suivi par un sommeil bien réel. Cela ne représentant que quelques heures à peine, le corps physique aurait alors l’essentiel du reste du jour pour travailler et ne pas perdre son équilibre naturel. Bien d’autres possibilité sont ouvertes par ce nouveau type de vie, mais là c’est le travail d’imagination des auteurs de science-fiction qui va combler les vides…

Alors, à quand la veille en 3d ?
Un sujet techno Rssintelligence.

10 bonnes tactiques de Référencement pour 2014

02 Jan 2014, Posté par D. Bocquelet dans Digital

Après la cohorte bestiale de Google, qui s’est achevée avec Colibri, qu’en est-il des solutions qui fonctionnent encore en référencement, et plus encore, est-il besoin d’en faire ?

Si c’est le bon sens qui parle, oui assurément, les beaux jours du SEO ne sont pas terminés. Comment se lancer sur un secteur concurrentiel et se contenter de faire un site en flash pauvre en contenus et riches en images en attendant que les commandes pleuvent ? Avant de se lancer sur internet il y a des wagons de pratiques éprouvées et de bon sens qu’il faut connaître et des pièges a éviter.

Le référencement n’est pas une science, il y a en effet trop de paramètres à gérer pour qu’une action x entraîne le même résultat sur les sites Y et Z quand bien mêmes ils sont identiques. Tout peut jouer, l’ancienneté, le nom de domaine, le contenu, la popularité… Chaque paramètre doit être considéré comme un petit engrenage ou levier à abaisser ou lever de quelques degrés, chaque action pèse un petit pourcentage sur l’ensemble de votre stratégie SEO.

Les jours où ils suffisait de multiplier des liens à tout va sont révolus, les maîtres-mots sont maintenant « contenu, diversité, et patience ». On peut toujours court-circuiter le facteur temps en passant par des annonces Google adwords, mais sans budget, il importe d’abord et avant tout de savoir ce que l’on fait, ou l’on va, et pour cela commencer par quelques conseils marketing :

  • Déterminez votre cible. Car en fonction de cette dernière dépend la forme, le style, les contenus, éventuellement les fonctionnalités attendues. Tous les internautes n’attendent forcément pas les mêmes choses mais leurs comportements sont induits par l »ergonomie standard ». L’originalité est un facteur important pour se démarquer mais il ne faut pas en oublier « les usages », surtout sur un secteur hyper-concurrentiel où les habitudes ont la vie dure. Un internaute qui ne trouve pas ce qu’il cherche pour un certain type de site ira voir ailleurs et ne reviendra plus.
  • Etudiez la concurrence. Connaissez par coeur leurs approches sur le même sujet, analysez leurs contenus et la manière de les agencer, leur présence sur les réseaux sociaux, relevez leurs backlinks (liens rentrants) leurs sources et les contenus associés. Tout cela vous donnera des idées et des munitions pour  faireau moins jeu égal ou faire mieux.
  • Allez à l’essentiel. Focalisez votre page d’accueil ou votre landing page par défaut sur un « call to action » clair et sans ambiguité : Suscitez une action de la part de l’internaute, maintenant et tout de suite. Ne cachez pas votre lien le plus important dans une masse de texte introductif ou en bas de page.
  • Privilégiez la ligne de flottaison : (Webdesign) il s’agit de la partie visible de votre site sans avoir besoin de scroller. C’est en particulier vrai sur la page d’accueil qui est éventuellement la plus essentielle. Placez-y vos arguments ou accroches choc, et aussi de préférence votre bouton « call to action », bien visible. Sous la ligne on préfèrera trouver du « en savoir plus ».
  • Ne négligez pas les autres pages du site. Pourquoi n’avoir que des liens sur la page d’accueil alors que d’autres pages peuvent aussi recevoir du traffic et permettre de vous trouver ? Cela marche un peu sur le principe de la sérendipité. Trouvez des approches/sujets différents mais dépendant de l’idée principale pour attirer du trafic basé sur un grand nombre de requêtes périphériques.
  • Ne négligez pas « l’after action » : Un internaute qui s’inscrit c’est bien, mais si le mail retour de confirmation passe en spam, c’est mal. Soignez aussi les aspects technique comma la vitesse de réaction du code, de chargement, un serveur « clean » (non blacklisté), un cheminement clair, intuitif et sécurisant, jouent tous un rôle pour conforter l’internaute qu’il n’est pas tombé dans un piège.
  • Créez de la récurrence et de la nouveauté : Une fois que votre internaute a effectué l’action attendue, ne vous faites pas oublier. Rappelez-vous à son bon souvenir (mailings, promos, communication sur un événement interne, etc.). Sans en abuser cela va de soi. Un internaute qui vient c’est bien, un qui revient (souvent) c’est bien mieux.

Une fois ce cadre bien en tête, on peut se focaliser sur le SEO on-site (optimisation pour le référencement naturel) :

  1. Choisissez un nom de domaine évocateur. Si vous démarrez un nouveau site, le nom de domaine est bien souvent calqué sur le nom de la société et par défaut sur ce qui est « disponible ». Or utiliser au moins le mot-clé essentiel pour l’activité est définitivement un plus. Cela compte pour le référencement et rassure les internautes dans les SERP, à condition que le reste suive. Il ne sert à rien en revanche de prendre un NDD à rallonge avec 6 ou 7 mots-clés puis de faire ensuite une redirection pour que cela figure sur sa carte de visite. Google n’aime pas les redirections. Mais un nom court et percutant sans rapport avec son activité peut par contre faire mouche si le reste est soigné, d’un point de vue purement marketing.
  2. Privilégiez une base technique saine. Si vous créez votre site à partir d’une plate-forme ou d’un portail gratuit, vérifiez ce que donne le code (afficher la source). Si votre contenu texte n’apparaît même pas, que le code purement technique (java, ajax, etc) est bien trop long et rend le chargement des pages trop lent, oubliez tout de suite. Privilégiez les CMS en installation indépendante (vous gérez l’hébergement) et étudiez ce qu’il vaut en SEO et testez ses performances. Ou encore mieux pour ceux et celles qui savent (peuvent) faites votre site de A à Z. Un site fait avec Microsoft Word n’est pas une base de travail sérieuse.
  3. Privilégiez un contenu texte équilibré. Le contenu est extrêmement important, non seulement pour les internautes mais aussi pour les moteurs de recherche. Donnez-leur à manger, mais privilégiez une cuisine simple et équilibrée au fast-food (bourrage de mots-clés). A partir de vos idées les plus importantes, rédigez naturellement, sans penser aux moteurs, variez et utilisez des synonymes. Tout est affaire de proportions entre le code et le texte, entre les mots-clés et le texte, les images et le texte. Cela vaut aussi pour l’ensemble des pages du site.
  4. Segmentez votre contenu de manière claire. Utilisez des balises H1 (titre principal de page), H2 (sous titre), H3 (sous-partie…) et des <strong> pour souligner les mots-clés essentiels de votre texte, et là encore distillez les idées maîtresses de manière équilibrée, sans par exemple reprendre forcément le mot-clés 1 (H1) dans chaque H… De la même manière à l’échelle du site entier, proposez aux robots un sitemap.xml à la racine de votre site, si possible à jour. Enfin ne faites pas de vos pages internes des modèles de concours de rédaction ! Gardez à l’esprit ce que l’internaute doit trouver ou comprendre et faites passez le message simplement, Google se fiche bien que votre texte comprenne 40 fois le même mot-clés noyé dans une masse de texte ou une seule fois avec deux phrases. Il donnera à peu près le même poids aux deux pages, tout est en fait question d’équilibre et de pertinence; et cela arrange bien les affaires du marketing et de la communication.
  5. Soignez les balises titre et description. C’est un poncif, mais aussi une corvée nécessaire et indispensable. Le titre apparaît dans l’onglet de la page (navigateur), et en résultat de recherche, il doit donc être en adéquation avec la description qui est affichée, qui doit accrocher en deux lignes (soignez l’impact marketing), et le tout doit correspondre aux balises H qui balisent le contenu, et bien sûr le contenu lui-même. Toute cette hiérarchie doit être littéralement mitonnée aux petits oignons. Cela va sans dire, faites des pages bien différenciées, y compris et surtout au niveau de ces même balises. Ne dispersez pas votre « jus » en reprenant exactement la même idée sur différentes pages. Vous pouvez également renseigner la vieille balise « keyword » mais cela ne comptera que pour un pourcentage très faible d’ordinateurs jamais mis à jour depuis des années…
  6. Ne négligez pas les images. A trop se focaliser sur le texte, il ne faut pas perdre de vue l’importance des images, d’abord directement -sur un plan marketing-, elles ont l’avantage de marquer, résumer une idée et former un tableau composite qui va être retenu par l’internaute. Techniquement elles doivent être légères (pas de .bmp à 300 dpi redimensionné de force à 50 px !) pour la vitesse de chargement. Mais aussi sur le plan SEO : Une image doit idéalement porter un nom évocateur comme courte description, ex. « canard_jaune.jpg » (règle : pas d’espaces, ni d’accents, ni de caractères exotiques), et encore mieux être accompagnée d’une balise « texte alternatif », en code <alt>. Elle ser(vait) à renseigner l’internaute du temps où la connexion était lente avant de s’afficher, si le lien de l’image est brisé; et renseigne le moteur de recherche qui aimera de préférence y trouver un <alt> et un nom d’image associé, et parlant si possible. Le saviez-vous ? vous pouvez aussi y ajouter un titre (<title>), qui s’affichera au survol de l’image pour éventuellement renseigner un peu plus l’internaute et surtout donner des biscuits supplémentaires aux moteurs. Là encore, attention aux abus. Ne créez pas des cohortes de galeries avec des alt et title longs hyper-optimisés ! Il faut que cela ait l’air naturel.
  7. Soignez vos liens internes et externes. Cela part de la page d’accueil qui en général est la plus riche en liens internes vers le reste de vos pages, sur un plan purement fonctionnel, en commençant par le fameux bouton « call to action ». Vos liens pourront être soit des liens textes (un ou plusieurs mots-clés du paragraphe pris dans un lien) ou image. Dans les deux cas il est toujours possible d’utiliser une balises <title> qui va le décrire. Il peut être optimisé sur le plan sémantique, de même que l’ancre elle-même (le mot(s)-clé(s)) en lien. Exemple : « en savoir plus sur nos <lien>prestations de xxx</lien> » parlera bien plus aux yeux de Google que le même insipide « <lien>en savoir plus…</lien> ». Pour un lien image, si l’image est parlante, et le lien dessus porte un <title> parlant, tout va bien. Dans l’ensemble, pensez à variez les formules et évitez le matraquage ou la sur-optimisation, mélangez des liens bien, moins bien, et pas optimisés par exemple. Evitez la surdose de liens internes et de maillage à tout propos entre vos différents contenus. Pour lier un H particulier dans un longue page depuis une autre, vous pouvez utiliser les ancres. Évitez de tartiner le pied de page de votre site de liens internes (sinon ceux qui sont fonctionnels et attendus comme les « mentions légales », « à propos », « contact »..) et plus encore les liens externes (partenaires, autres), c’est à présent très mal vu. Préférez une page « partenaires » ou « liens » unique et bien identifiée. Ne faites pas de liens externes sur des sites qui n’ont rien à voir avec vous, et de même n’acceptez pas des liens venant de n’importe ou … sous peine de passer ensuite des heures à faire du désaveu de liens.
  8. Ayez une vraie stratégie de backlinks: Pour ce qui est des liens qui pointent vers votre site, puissant indicateur pour Google et consorts que votre site est réputé et populaire, il y a quelques règles de bons sens à connaître pour ne pas de prendre de coups de griffe de panda ou de bec de pinguin. D’abord, un bon lien est (pour google) un lien naturel. A savoir un lien  q’un anonyme vous dispensera généreusement pour récompenser la valeur de votre site ou d’un contenu en particulier… Mais ça c’est la théorie, car « attendre » ce genre de lien si vous vendez des chaussettes et que vous n’avez rien de plus intéressant à dire qu’elles sont en promo et en fil d’écosse, vous passerez du hochet au déambulateur avant d’avoir augmenté votre chiffre d’affaire. En pratique, il va falloir se retrousser les manches et faire du référencement organique, et si possible sur tous les fronts (v. plus loin). Pensez diversité, et évitez la suroptimisation (encore!). Exemple, fuyez comme la peste et le choléra les propositions « 1000 liens garantis » automatiques et à deux centimes. Le site serait renvoyé illico aux oubliettes et vous passeriez le reste de votre vie à les désavouer. Préférez les « bons liens », c’est à dire les liens de sites du même domaine, ou d’autorité (et encore mieux spécialisés). Un lien d’autorité par exemple c’est celui d’un site de service public, organisme, etc. ou de wikipedia par exemple. Votre valeur est reconnue. Peu de liens, mais des liens forts venant de sites choisis, d’influence, d’experts, etc. Évitez par exemple les annuaires généraliste ou ne gardez qu’une « short-list » méritante avec un pagerank intéressant et un bon trafic. Les tactiques pour obtenir des liens externes de qualité sont nombreuses, on ne pourra pas toutes les citer ici.
  9. Diversifiez votre présence au maximum. Vous devez être partout, et cela doit avoir l’air naturel. A savoir, non seulement sur des annuaires et sites spécialisés, blogs, forums, commentaires de blogs, réseaux sociaux, sous forme de textes, images, infographies, vidéos, présentations powerpoint, pdf, et autres sur les plate-formes documentaires, etc. Pour tous ces contenus externes, ne faites jamais de copier-coller (duplicate content), essayez toujours de créer des contenus différents, variez les formules, les liens sortants et leur optimisation, variez les approches, créez au besoin des choses très périphériques ou généralistes qui avec la méthode de l’entonnoir, finissent sur votre produit/service. Faites vivre une communauté sociale autour de votre marque, de vos produits, ayez des affiliés et des abonnés, des « followers », et obtenez des « like » et des « + » et assimilés. Faites-vous aimer et incitez au partage et au buzz. Une bonne idée qui décolle de manière virale vaut tous les sacrifices et les peines du monde.
  10. Enfin, faites vivre votre site. C’est une constante solide, google n’aime pas beaucoup les sites qui n’évoluent jamais. Tout comme un restaurant, changez votre carte, proposez de nouvelles choses, faites de l’incentive et relayez le tout au maximum, de préférence auprès d’une communauté sociale active et attachée. En matières d’actualités, une PME-PMI peut parler de ses nouvelles « corporate », mais aussi de générer des contenus « utiles » susceptibles d’être repris et partagés. D’autres préféreront faire de l’événementiel en fonction des saisons, de leur propre stratégie marketing, etc. Un contenu qui porte un lien vers votre site et est repris partout, cela compte pour vous amener du trafic, et c’est encore plus juteux si c’est du qualifié…

Au final, si le site est bien construit en suivant ces règles de base et suit un politique de diversification et d’équilibre dans sa politique de backlinks, il ne pourra que lui arriver du positif. Mais cela se travaille d’avoir l’air « naturel », ou d’optimiser sans que cela se voir trop. Google en effet poursuit son mouvement pour « proposer une meilleure expérience utilisateur » et donc fera en sorte de moins favoriser qu’avant les sites un peu trop bien optimisés ou se focalisant sur quelques techniques « de masse ». Partez avec cela en tête pour 2014, prenez patience, retroussez-vous les manches, et bon référencement!…

CMS : Test de Contao

16 Oct 2013, Posté par D. Bocquelet dans Digital

Contao est un CMS relativement récent basé sur l’architecture de l’ancien TypoLight CMS. Malgré son nom à consonance sud-américaine, c’est un CMS  open source Allemand, renommé depuis 2010 pour ne pas le confondre avec Typo3. Nous avons donc testé l’installation du CMS et la création d’un premier article, comme le feront la plupart des futurs éditeurs souhaitant une solution de publication de contenu. Contao sera comparé au CMS/blog le plus utilisé, WordPress.

Reprenons l’accroche du site officiel (traduit de l’anglais):

« Contao est un système de gestion de contenu open source (CMS) pour ceux qui souhaitent une présence professionnelle sur Internet facile à entretenir. La structure système est state-of-the-art et offre un niveau de sécurité élevé permettant de développer des sites Web SEO-friendly également accessibles aux personnes handicapées. En outre, le système peut être étendu de manière flexible et peu coûteuse. Une facilité de gestion des droits des utilisateurs, un service de mise à jour en direct, un framework CSS moderne et de nombreux modules déjà intégré (news, calendrier, formulaires, etc) ont rapidement fait Contao l’un des systèmes open source de gestion de contenu les plus populaires  sur le marché. »

On remarquera au niveau du site officiel, que les deux seules langues proposées sont l’anglais (par défaut) et l’Allemand.

Toutefois, le support francophone Contao peut être trouvé sur http://contao.fr et http://forum.contao.fr. De plus, l’interface est entièrement traduite.

Sur le web, on parle moins de Contao que de TypoLight (récent changement).  Information importante pour une utilisation dans un cadre professionnel (réseaux d’entreprise), Contao est compatible tous navigateurs, dont Firefox (à partir de la version 2) ou Internet Explorer (à partir de la version 7).

Il est possible de s’amuser avec le back-office en live avant de le télécharger.

Voilà à quoi ressemble le back-office :

Contao back office demoPour voir le « front office » il faudra soit installer la version de démo, soit au préalable choisir un template pour faire apparaître du contenu (« No layout specified » s’affiche sous le nom de domaine). Une singularité que l’on retrouve sur d’autres CMS comme Magento. La logique est que même si vous créez des contenus, rien n’apparaît avant d’avoir mis en place ce premier template « par défaut ». Il faudra dans ce choisir des styles par défaut au niveau de la présentation.

Le front office de démo officiel est visible ici : http://demo.contao.org/en/academy.html

Remarque : Un choix compréhensible de Contao comme de la plupart des éditeurs du CMS qui ne veulent pas que leur démo en accès libre serve à faire du spam-content…

Maintenant passons au vif du sujet :

I-Installation:

Tout d’abord, c’est Contao 3.x que nous testons, le dernier. En effet, Contao 2 est toujours supporté mais plus mis à jour.

Les spécifications demandées : Un serveur web Apache ou IIS avec PHP et le support de MySQL. La version minimum PHP 5.3.2 et est la version minimale MySQL 4.1. MySQL 5 est fortement pour une meilleure performance. Les extensions PHP « GDLib » (redimensionnement des images) « soap » (référentiel d’extension) et éventuellement « mbstring » (gestion des caractères multi-octets) et « mcrypt » (cryptage des données) sont également demandés.

Avant même d’avoir créé son espace et sa base de donnée,  on peut opérer un « contao check » pour vérifier directement sur le serveur si les spécifications sont compatibles. Il suffit pour cela d’importer un fichier à télécharger sur la racine du serveur. Si vous êtes OK, alors on peut passer à l’étape 2.

Une fois avec en mains vos paramètres ftp et ceux de la BDD, et avoir téléchargé le CMS (« core-master ») sous forme zip ou tar.gz  sur la page de téléchargement, il vous reste à utiliser votre client ftp et envoyer le contenu du fichier en ligne, sachant que core-master une fois décompressé, fait quand même 35 mo avec plus de 3700 fichiers et 550 dossiers… beau bébé, plus que wordpress, mais moins que le très exigeant Magento. Donc le temps de se faire un bon thé, café ou autre, c’est selon.

Donc, de notre côté nous avons décidé d’installer Contao sur un site de test nommé fort à propos testnproduct.com. Nous avons téléchargé le contao check, envoyé en ligne dans le dossier web approprié, lequel se nomme habituellement « http », « http_docs », http_public », etc.

Ce qui donne dans notre cas :

Contao checkCela nous a permis de voir qu’effectivement dans notre cas il faudra par la suite updater le CMS à la main… Le reste étant validé, on clique sur « install ».

Ce qui nous emmène à la question de la version à installer. Comme on souhaite la dernière version, on à laissé le menu déroulant par défaut, et cliqué « démarrer l’installation ». Bonne nouvelle, l’installation est alors automatique (permis par le serveur dans notre cas), il a suffi d’attendre quelque secondes. Au final, on a le compte-rendu :

Il ne reste plus dans ce cas qu’à passer à l’étape suivante d’installation, en cliquant sur « open the contao install tool ». Attention de bien vérifier que le répertoire « contao » qui contient « install.php » (à changer par la suite) est bien localisé sous votre répertoire web à la racine de votre serveur, et pas dans un sous-dossier du fichier de check ! L’installation doit se faire en principe sous www/contao/install.php.

On peut passer l’étape d’acceptation de la licence Open Source, ce qui nous envoie sur l’écran suivant:

L’installation de Contao est en effet sécurisée. Le mot de passe ne peut être tapé que trois fois pour éviter les attaques de brute force. Pour éviter de se faire bouler de sa propre installation, il est possible d’éditer la ligne $GLOBALS[‘TL_CONFIG’][‘installCount’] = 0; // This will remove the automatic lock que l’on trouve sur system/config/localconfig.php.

Une fois son premier mot de passe choisi, il suffit de l’enregistrer, puis de passer à l’étape suivante.

C’est maintenant que les choses se corsent. Il est bon d’avoir « sous le coude » les informations demandées. Notez (en haut) qu’une clé de cryptage a été générée, que vous pouvez noter à part. Si vous avez une erreur d’installation (mauvais identifiants, etc), vous serez automatiquement renvoyé sur le login d’installation. Si tout se passe bien, vous arrivez à l’étape suivante :

Dans ce genre de cas, mieux vaut laisser par défaut, bien que l’on puisse spécifiquement basculer dans une langue. L’étape suivante et rapide et vous demande la mise à jour de votre base, ce qui (si vous êtes sur MysQL) est rapide et automatique. Reste enfin la dernière étape, le choix d’un template.

Par défaut, le modèle (ou « template ») est celui fourni, paramétré depuis la base de données.

Etape suivante, la création d’un utilisateur. Le site d’exemple étant le template par défaut « music academy », il est signalé que les paramètres de connexion seront ceux par défaut de ce modèle, à savoir k.jones, et Kevinjones (petit-fils du grand Indiana ?)… Il vous sera loisible de les changer depuis le back-office (c’est même recommandé par sécurité !!) : « Si vous avez importé le site d’exemple, l’identifiant de l’utilisateur administrateur sera k.jones et son mot de passe kevinjones. Consulter la page d’accueil du site d’exemple (front office) pour plus d’information. »

Après quelques péripéties et trois écrans plus loin, votre page d’accueil devrait ressembler à ceci:

Notez qu’il a fallu choisir ce template par défaut à la fin de l’installation pour afficher un contenu. Le style est sobre et « Germanique », presque Luthérien; ça semble aussi un tantinet daté, mais peut-être le sujet est-il en cause. Edit 29/08/2013 : Une nouvelle maquette est en cours de création.

Dans tous les cas il va falloir prestement éliminer ces contenus par défaut pour éviter de se faire repérer des robots spammeurs. Ce contenu à quand même l’avantage de fournir une matière première concrète pour comprendre comment fonctionne la gestion du contenu sous une architecture CMS.

Comme toutes les installations de CMS, ceci n’est que le début d’un long travail d’adaptation que connaissent par coeur les webmaters : Choix d’un template et son adaptation avec la charte graphique choisie selon le cahier des charges, paramétrages dans tous les sens, y compris SEO. Et ensuite portage des premiers contenus client mise en page, optimisation, vérifications, tests en rafale, et livraison.

Nous, nous allons nous contenter de jouer avec ce CMS qui n’est là que pour ça.

II-Exploration:

Rendons-nous donc sur l’espace de login pour d’y connecter avec ces identifiants « grand public », sur (si votre installation est correcte) http://www.votresite.com/contao/

Le choix de la langue du back-office dès ce moment est assurément une bonne nouvelle. L’essai se faisant en deux temps, on pourra constater qu’en se re-loggant le lendemain, le choix de la langue n’avait pas été retenue et restait « libre ».

Connectons-nous donc.  Ce qui nous envoie sur cet écran :

Comme indiqué, le système de cache « fortement recommandé » permet d’optimiser les performances, et comme on à la configuration récente qu’il faut, profitons-en. Une fois le texte rouge parti, nous somme libres d’explorer la bête.

Première remarque : Les fonctionnalités sont à gauche, avec une gradation des fonctions par type « contenu », « style », « users », « systeme » et « outils » qui est assez standard et met en premier les plus utilisées (et importantes pour le quidam), à savoir le contenu et l’apparence. Donc ergonomie  standard, qui permet de ne pas se perdre au premier abord lorsque l’on vient d’un autre CMS. Le menu ne fait pas exception et regroupe les fonctionnalités usuelles à cette place, à sa voir la déconnexion tout à droite, l’accès à son propre compte en premier. Par contre bizarrement l’accueil devrait être devant, et la prévisualisation (« aperçu ») est inattendue à cette place. Elle permet toutefois de voir le site à tout moment dans un nouvel onglet.

Seconde remarque : La terminologie est là encore standard, ce qui permet de s’y retrouver assez vite. Exit les « nodes » et autres joyeusetés terminologiques singulières des premiers Joomla, drupal et autres, quoique l’on retrouvera plus tard un « noeud » dans la traducrtion de l’arborescence. Le système est apparemment clair et les traductions (K)orrectes. On  notera aussi la possibilité de réduire ces sections de manière à ne laisser les plus utilisées ouvertes, pour un repérage plus facile et rapide. Cela réduit la fatigue oculaire aussi (c’est du vécu!).

Troisième remarque : Le contenu central affiche, par défaut dans l’accueil, en général un mix d’articles, pages, commentaires et nouveautés propres au CMS. Ici c’est plus sobre. On s’en tient ici à un titre, une info de connexion (en général plutôt affiché dans le header), et une « info utile », et les raccourcis claviers pour plus de rapidité. Effectivement d’expérience sur pas mal de logiciels, les raccourcis permettent de gagner un temps considérable par rapport à un travail « à la souris ». C’est plutôt rare que ça existe sur un CMS, sorti des habituels raccourcis windows/mac/linux, et encore plus que ce soit mis en avant. Donc bonne nouvelle pour son workflow, si bien sûr on est assez motivé pour produire en masse. Comme attendu, on retrouve en partie centrale la liste des derniers articles, tous des exemples. Ci-dessous une comparaison avec la page d’accueil de Wordrpess.

Interface WordPress

Remarques :

-A titre de comparaison, voici le back-office de wordpress, plus « touffue » en comparaison. Une simplicité d’affichage du premier qui permet de s’y retrouver plus vite. Après, chaque utilisateur à ses propres préférences par rapport à ce choix de présentation. D’autres aiment un back-office qui ressemble à un front-office…

-Moins « user friendly » en revanche pour le rédacteur lambda, les informations liées aux articles qui affichent en plus de leur date, auteur et titre (description), usuels et attendus, des données plus techniques comme l’id de chaque article et la table de la base de donnée associée, sans compter la « version ». Tout rédacteur de contenu n’attends pas forcément ces données MySql !.

Les fonctionnalités du tableau de gestion, sans surprise, comprennent l’édition, mais plus singulièrement, pas la suppression, et à la place une singulière fonctionnalité permettant de comparer les versions enregistrées.

Remarque : On en déduit donc que le tableau comprend non pas la liste des articles, mais des différentes versions de chaque article ! La conséquence de ce choix est tout simplement de créer un tableau inutilement à rallonge. A ce titre, wordpress par exemple est plus transparent. Si plusieurs versions existent (articles fermé sans être enregistrés par exemple), ce listing de versions est affiché automatiquement sur la page de l’article même, ou il est plus utile à priori. Si un « brouillon » est plus récent, l’info (ainsi que sa dernière édition) apparaît aussi au niveau de la liste des article, sur la ligne de l’article même, évitant les doublons.

Edition/création d’article:

Rendons-nous sur « articles », affichés en haut à gauche dans notre menu.

A première vue, l’affichage des articles est plus conventionnel, avec une arborescence masquée par défaut. (Pour tout afficher/masquer, on utilise « tout basculer », en haut).

On a également la possibilité d’éditer en masse les articles (on sélectionne « édition multiple »), ce qui permet d’éditer absolument tous leurs paramètres, sauf que la suite est difficilement compréhensible au premier abord.

On retrouvera aussi avec bonheur l’icône « nouvel article », premier recherché par les utilisateurs, et au-dessus un tri de articles multicritères bienvenue.

Terminologie de l’édition de contenu sous Contao : On utilise « article » pour une page « en dur » (de présentation), et « actualité » pour un article de presse.

Dans l’affichage des contenus, on peut voir qu’ « académie de musique » est une fille du CMS. Ce qui sous-entend que l’on peut gérer plusieurs « sites » avec leurs propres menus sous un même nom de domaine, ce qui le rapproche de Magento, l’un des rares (sinon le seul CMS E-commerce à être effectivement « multi-boutiques »).

Les options des pages « mères » (appelés ici des « noeuds »), comprennent dans l’ordre :

  1. L’édition
  2. Les paramètres (nom, titre, auteur, affichage dans le template, balises SEO, etc..)
  3. La duplication (pour reprendre un modèle-type)
  4. Sa place dans l’arborescence
  5. La suppression
  6. Le statut: publication/dépublication (l’oeil devient grisé), ce qui revient à un affichage public/privé
  7. Et les « propriétés » de l’article (simple popup d’informations)

Remarques :

-Les « title » descriptifs qui s’affichent au survol des icônes, sont jolis mais sont peu lents comparés à des title normaux (navigateur), plus réactifs. Un raffinement inutile.

-Ces « titles » affichent systématique l’id de l’article, et encore une fois, à moins d’avoir en permanence sa base MYSql ouverte a proximité, c’est une information lourde et inutile pour le rédacteur lambda.

-Les pages « Pages not found » et « Access Denied » ne sont pas un bug liés à deux articles « réguliers ». Il s’agit de pouvoir éditer la page 404 et accès restreint. Intention louable, mais pourquoi les mettre dans le même panier que les autres pages ? On aurait pu aussi les retrouver dans les paramétrages par exemple, mais ceci dit c’est logique.

-A gauche des titres s’affichent des icônes trop petits pour être déchiffrables, un « crayon rouge » (à gauche du titre du noeud) qui en fait effectue une prévisualisation de l’article, tout comme le crayon vert » à gauche de l’article « fille » du noeud, sans compter un troisième, gris pour la même chose, et qui ressemble à une huître et ne vaut guère mieux. Pour la plupart des gens censé un « crayon » c’est l’édition, par la prévisualisation. Et le rouge est associé à la suppression ou à un warning. Donc en substance, ergonomie zéro pointé.

Tests : Déplacer un article dans l’arborescence.

ô surprise ! On s’attendait à un bête menu déroulant, et on a à la place ceci: Un « presse papier » où l’on est censé choisir la page à déplacer en cliquant sur le petit icône orange, en « fille » d’un noeud (ou « mère » si l’on préfère). C’est une question d’habitude. Par contre, on ne peut pas par contre transformer cette page en fille d’une autre page, mais a partir de ses paramètres si.

Test création de contenu

Maintenant lançons-nous. On clique sur « nouvel article » (en fait une page).

Ce qui relance l’écran vu plus haut. Au lieu d’ouvrir directement la page d’édition ou vous demande de la classer d’abord. (Franz Kafka aurait-il été convié  à la rédaction du cahier des charges ?).

Voici l’interface de création/gestion d’articles (pages).

  • Certaines sections ne sont pas obligatoires et peuvent être réduites.
  • L’ ID dans la base de données (ici « Éditer l’enregistrement ID 30 ») est présent, avec le titre en dessous.
  • Niveau SEO, les mots-clés sont présents mais la description (balise <meta descr>) est a éditer en amont, dans structure de site,  « éditer les paramètres de l’article » (icône tournevis/clé molette).
  • L’option « imprimable » permet d’individualiser les options de partage/impression/export de chaque page ou article.
  • L' »Accroche de l’article » n’est pas l’article lui-même, ce qu’on voit ensuite. Là encore figure l’option de raccrocher le style de l’article à un ID ou classe. (Au lieu d’un template).
  • L’éditeur WYSIWYG est TinyMce, un classique, complet, mais pas forcément trans-navigateurs, à vérifier donc.
  • Plus bas, les protections d’accès déterminent un affichage public ou privé en accès réservé aux membres enregistrés. Une option maintenant standard, que l’on attendait, for utile pour les associations qui ont un contenu spécifique pour leurs adhérents.
  • Dans les options avancées, l’article peut présenter un aspect différent (CSS spécifique) pour les invités, avec des espaces spécifiques.
  • Les options de publication permettent de l’afficher durant une période précisément limitée dans le temps.
  • Il y n’y a pas moins de quatre boutons de sauvegarde selon ce que l’on veut faire (quitter, rester et continuer, ect..).

Nous avons ouvert la page de l’article en prévisualisation et découvert (contrits) que le contenu n’apparaissait tout simplement pas. Dans le tableau de gestion des contenus, l’article est en effet en grisé. Au lieu de l’URL standard c’est en effet l’alias qui s’affiche, vide. En revenant sur le site même et la section « teachers » on se rend compte que l’article n’est même pas listé. Privé ? Non, nous n’avons pas sélectionné cette option. Un coup d’oeil sur la fiche de prof. Helen Lewis et nous avons ce début d’explication : « Vous avez sans doute remarqué que l’article possède sa propre URL construite à partir des alias de page et l’article alias (nouveau dans la version 2.5). Vous pouvez utiliser cette URL unique comme un « lien permanent » pour accéder directement à un article particulier. »

Remarque : C’est louable de vouloir faire de l’URL rewriting à façon à partir du back-office, mais cette option avait plus sa place dans les paramètres avancés (SEO), et en rester sur un bon URL à l’ancienne, si possible réécrit avec les mots-clés ou descriptifs renseignés. A titre de comparaison WordPress propose un simple champ texte dans lequel on peut directement réécrire son URL. C’est quand même plus simple.

Nous avons donc donc depuis le panneau de gestion des articles, dégrisé la publication (statut). L’URL affichant toujours « alias » au lieu de « news » (vu au survol), il a fallu réouvrir l’article. En cliquant sur l’édition de l’article, au lieu de renvoyer directement sur la fiche, on tombe sur un tableau de « propriétés », et nous faisons des découvertes:

L’article est « non visible » par défaut. L’accroche (le contenu), n’est pas affichée, alors même qu’elle a été rédigée et l’article censé être publié. Le fait de ne pas avoir précisé de date est-il en cause ? Nous avons donc réouvert la fiche, vidé le champ « alias », puis précisé  une date de fin de publication (fin du mois). Puis une fois enregistré et quitté, constaté dans ses caractéristiques que l’accroche n’était toujours pas affichée. Vue rapide sur la page « teachers », et là, pas de changement, l’article n’apparaît pas. Puis en regardant de plus près, la mention « aucune enregistrement trouvé », et plus haut le bouton « créer un nouvel élément de contenu au début » (symbole « + ») nous intrigue. Et si l’accroche était effectivement seulement une accroche ? Nous cliquons dont sur l’icône et là, bingo ! Ce qui semble être effectivement une page de contenu s’affiche.


Nous réalisons donc que la gestion des accroches d’articles et des articles eux-même sont deux choses indépendantes et bien séparées. Qu’à cela ne tienne, nous créons un contenu type à l’aide de notre générateur préféré, slipsum, ajoutons une image de circonstance, ce qui nous a permis de tester la fonction d’insertion d’image, compète. Cela nous à permis aussi de constater que cet enregistrement était bloqué, car nous n’avions apparemment pas choisi de raccrocher cette image au « sélecteur de fichier » (Nous avions pourtant précisé une URL externe). Par défaut nous avons choisi tinymce.css en se disant que le style que nous voulions appliquer à l’image venait de là. Mal nous en prit (voir plus loin).

Une fois ce contenu enregistré, nous avons rebasculé dans le panneau de propriétés de l »article », pour voir effectivement le contenu (mais sans la photo). L’accroche était toujours « non affichée », et sur la page « teachers », toujours rien. La mayonnaise commençait à monter. Retour donc sur la page de l’accroche pour voir si nous avions raté quelque chose, pour effectivement constater que nous n’avions pas coché la case dans la section, car il était écrit « Afficher le texte de l’accroche s’il y a plusieurs articles. » Il n’y a qu’un seul article, mais mettons ça pour une erreur de traduction. Re-sauvegarde, re-vérification sur la page « teacher », et… toujours rien. A ce stade, la mayonnaise avait un goût de moutarde. Puis nous avons réalisé une erreur de date, prise pour une date de fin alors que c’était un début de publication. Corrigé avec une date de début antérieure et de fin très postérieure, et les deux champs remplis. Et là, miracle:

Remarques :

  • Il faut bien comprendre à quoi sert un « alias  d’url » avant de publier quoique ce soit.
  • Il faut bien retenir qu’une accroche est un élément (presque) totalement indépendant du contenu. Le contenu ne génère pas automatiquement une accroche.
  • Il faut bien cocher « Afficher le texte de l’accroche s’il y a plusieurs articles » même si (ce n’est pas le cas) et si (au hasard) vous pourriez avoir l’idée saugrenue de faire plusieurs contenus reliés à une même accroche.
  • Il faut bien remplir les champs de date, sans se tromper. Aucune par défaut: Pas de date, pas d’article.
  • Niveau SEO, revenons à cette bonne vieille liste de keywords, c’est tellement mieux quand c’est inutile !
  • La gestion d’image ne permet pas d’ajouter une URL d’image externe. Tout doit être stocké sur le serveur.

Par curiosité, nous avons ensuite jeté un oeil sur les articles d’actualités.

Nous avons placé -à dessein-, le back-office et la page « actualités » du front office côte à côte. On retrouve la même présentation de gestion, mais plus simple (plus d’arborescence à priori) . Créons-donc notre première actualité. Le bouton se nomme « nouvelle archive » (Ici, on ne fait pas d’actualités « fraîches », on crée des archives).

Et là, surprise. On ne peux créer que des actualités qui sont en lien direct avec une page déjà créée en amont. Soit, on va la relier justement à notre contenu tout frais et annoncer la venue du Prof. Jones dans notre belle académie. Et en déroulant le menu on se rend compte que l’ion ne peut que choisir un « noeud », pas la page parlant précisément du prof. Jones… Nous activons les commentaires, toujours valables pour une actualité, et on enregistre le tout (« enregister et fermer »).

Le système d’édition ressemble à celui des pages. L' »archive » est en fait une accroche, mais pour que l’actualité ait du contenu, il faut cliquer sur l’icône « Nouvelle actualité » à partir de la page des propriété de l’actualité. ce qui nous amène à cette page :

La page est assez similaire à celle des « articles » (pages normales), avec toutefois un case « publier l’actualité » (que nous nous sommes empressés de cocher !), une cible de redirection qui (enfin !) permet de faire pointer l’article sur un URL externe, et la possibilité d’y ajouter un document. Enfin il est possible de « mettre en avant » le contenu à partir de la section « paramètres avancés ».

Remarques :

  • Un actualité compte comme pour une page, on doit au préalable créer une « accroche » indépendante de l’actualité elle-même.
  • On ne peut faire apparemment d’actualité pointant sur une URL externe, en tout cas depuis son accroche. C’est possible au niveau du contenu de l’actualité. Ce qui donne : Accroche->Contenu->Page externe.
  • De même une « actualité » (appelée ici archive) renvoie à une rubrique et pas à un article précis…
  • Vous remarquerez aussi les explicatifs « coupés » au niveau des cases à cocher des commentaires. Les utilisateurs apprécieront.
  • Une fois tout enregistrée, l’actualité n’apparaissait toujours pas sur la page http://www.testnproduct.com/index.php/news.html
  • Même après avoir checké l’ensemble des options et revérifié les dates, puis sur le site, un emplacement que nous n’aurions pas vu, aucune actualité à l’horizon.

III-Bilan :

Il restait encore des tonnes de fonctionnalités (nous n’avons exploré que deux sections au final), mais le sujet étant de se focaliser sur l’installation et la création de contenus, nous nous en sommes tenu là, il aurait fallu dans le cas contraire, une dizaines d’articles au bas-mot.

Parmi l’ensemble des fonctionnalités du contenu même, nous avons essayé les suivantes :

  1. Calendrier/évènements : Un agenda, que l’on peut suivre sur http://demo.contao.org/en/calendar.html – Ce dernier permet de mettre en ligne et éditer plusieurs calendriers, avec une page dédiée à chaque évènement.
  2. Le bulletin d’information. Une variante qui permet de relayer des articles par mail (mailing-list) – En fait un éditeur de newsletters.
  3. La création de formulaires. Permettant de paramétrer ceux-ci avant la création, en choisissant une disposition (avec/sans html), un envoi par mail et/ou enregistrement dans la BDD. On peut ensuite créer son formulaire en cliquant sur « nouveau champ » avec pratiquement tous les types possible d’éléments interactifs, et le choix de la méthode Form/Get.
  4. Un récapitulatif des commentaires. Avec options de tri, édition/suppression/dépublication.

Au final, ce que l’on peut dire après comparaison avec WordPress et une vingtaine d’autres CMS que nous avons testés depuis une dizaine d’années, c’est indubitablement un CMS puissant, qui sait tout faire ou presque. Mais il nécessite un réel investissement pour le maîtriser cvar l’ergonomie semble avoir été (encore !) oubliée.

En progrès par rapport à des systèmes dérivé de SPIP (celui qui à lancé le principe), comme Joomla et ses termes abscons, son fonctionnement contre-intuitif… Un problème que partagent malheureusement la plupart des CMS actuellement, tout simplement à cause de leur nature même : Créés par des dizaines, voire des centaines de développeurs, ces solutions sont des patchworks de fonctionnalités que certains tentent de faire fonctionner ensemble. A aucun moment du processus n’a été requis que l’ergonomie (comprenez-nous bien, pas celle de la grande majorité des personnes qui utilisent l’informatique de manière purement fonctionnelle et ponctuelle) soit placée au centre de la démarche. On peut résumer cela comme un CMS par des développeurs, pour des développeurs

Pourtant WordPress ne fait pas exception. Le succès tient peut-ête au fait qu’en grande partie son coeur (un moteur de blog) était simple et ergonomique au départ. Créé par un développeur unique, Michel Valdrighi sous le nom de cafelog (ou B2), puis repris et amélioré comme un fork par Matt Mullenweg and Mike Little. Cette base était suffisamment « souple » pour accepter des milliers de modules par la suite sans changer fondamentalement cette ergonomie. Même la terminologie utilisée est compréhensible et la plupart des fonctionnalités ajoutées l’ont été de manières intuitives. Une réelle réflexion à t’elle eu lieu sur le sujet ?

Alors au final, entre Contao et WordPress, il est relativement facile de trancher selon les personnes censées utiliser ce CMS, tous les jours, et pour leur business.

Si l’utilisateur final veut une solution gratuite « clé en main » puissante, polyvalente sans modules additionnels et à le temps de le maîtriser puis de former à son utilisation d’autres personnes, alors Contao est effectivement un CMS de choix. Les utilisateurs aux quotidien de cette solution auraient d’ailleurs sur mal à passer sur une autre architecture moins puissante par la suite. Mais soulignons le bien, c’est un CMS chronophage.

Il est très finement paramétrable, mais ce processus tue la simplicité d’utilisation et rends la création de contenu difficile à mettre en place sans en passer par un apprentissage de son fonctionnement.

Pour preuve, de premier abord bien que l’accès à la création de contenus ait été immédiate, nous n’avons pas trouvé tout de suite le mode de fonctionnement précis permettant de publier ce contenu.

Trop de processus intermédiaires, de paramétrages obligatoires, et dans certains cas une traduction contre-intuitive au mieux.

Contrairement à ce qui est annoncé, les SEO n’est pas forcément pertinent (voir cas des mots-clés).

Enfin, l’installation multi-phase est compréhensible, mais certaines exigences de sécurité sont pesantes et les systèmes annexes demandés ne sont pas forcément disponibles sur tous serveurs.

Dans le cas opposé, WordPress semble plus « touffu » de premier abord en page d’accueil, mais toutes les options sont sous la main et il n’y a pas de chemins, de paramétrages ou de procédures indispensables et longues avant qu’un contenu soit publié : Tout est simplement « par défaut ».

Sur Contao, il n’y a pas de contenu du tout, faute de paramétrages.

On retrouve également la possibilité de créer des pages « statiques » de présentation et de faire du blogging, mais de manière beaucoup plus fluide sur wordpress (c’est quand même son coeur de métier !).

Niveau options wordpress est déjà riche, et pour celles qui manqueraient, 26 000 modules sont disponibles, à comparer aux 1532 de Contao.

WordPress demande lui-aussi un apprentissage, mais reste définitivement plus intuitif et nettement plus rapide à prendre en main.

L’installation comparée à Contao est comprise en seulement deux étapes (check compris), et qui plus est est moins exigeante en termes de spécifications techniques (reportées toutefois sur les plugins), quoique moins sécurisée.

WP est nettement plus accessible à des personnes ayant peu de temps à consacrer à l’environnement et aux paramétrages du CMS et plus à la publication directe.

C’est précisément sans doute cette facilité de publication, propre au blogging, tout en proposant une alternative aux hébergeurs de blogs, qui a généré ce contenu si apprécié par Google.

Cette spécificité a propulsé au premier rang les blogs wordpress, accélérant le succès du CMS, et non pas de nombreuses options ou une supposée extraordinaire optimisation SEO. « Permettez-moi de publier facilement et sans entraves, et je générerai du contenu, beaucoup et souvent. »

Les CMS doivent être appréhendés un peu comme des logiciels, toute le monde ne se sert pas de toutes les options et fonctionnalités, paramétrages, ni en même temps ni en permanence. La plupart des non-geeks n’utilisent au quotidien qu’un faible pourcentage de toutes les options qu’ils ont sous le pied (et même la plupart des geeks). Un bon exemple est Photoshop, d’Adobe (r). je met au défi des professionnels de l’image de dire qu’ils ont déjà utilisé ou combinées toutes les fonctionnalités de la bête, même d’une version ancienne. Pour la plupart des utilisateurs, certaines sections du logiciel sont même des « terres inconnues ». A titre personnel je n’emploie peut-être que 5% de photoshop (CS1), mais cela me permet de réaliser 100% de ce qui est nécessaire en terme de visuels au quotidien.

Donc au final, gagne la solution qui dispose d’un base simple, permettant d’atteindre un but au plus vite (ici publier du contenu), sans que les options n’interfèrent dans ce workflow. Les développeurs devraient s’en souvenir avant de lancer de nouveaux projets ambitieux, et perdre de vue l’essentiel.

(suite…)

Nouveau logo pour RSS Sourcing

08 Oct 2013, Posté par D. Bocquelet dans Digital, Outils

Nouveau logo et nouvelle charte graphique pour RSS Sourcing : La nouvelle version du site internet www.rss-soucing.com, siège des outils de veille thématiques proposés par VIEDOC, reçoit un nouveau logo.

Plus en détail :

L’ancien logo était considéré comme peu lisible, l’ensemble de couleurs et le cube en 3d rendait l’ensemble difficile à décrypter en petites dimensions.

 

L’idée de base a été conservée, mais retravaillée. Selon le cahier des charges de VIEDOC, il devait être :

  1. Plus lisible
  2. Plus clair
  3. Plus dynamique
  4. Plus simple
  5. Plus compact
  6. Modulaire

Les similitudes :

  • On retrouve le « carré » en arrière plan symbolique d’une multitude de sources
  • Le symbole RSS universel est aussi repris quoique remanié

Les différences :

  • L’effet 3d du carré est abandonné
  • Le carré est désormais orange et certains bords sont arrondis pour plus de dynamisme
  • Le symbole RSS inversé, avec le « point » d’émission passant en noir, et évoquant l’oeil du veilleur
  • La forme est dynamisée et évoque un rapace, symbolique de l’activité de veille
  • La couleur orange retenue rappelle celle des icônes RSS
  • Le texte « rss sourcing » est scindé en deux et le logo devient plus compact.
  • « outil de veille » a été ajouté pour asseoir l’ensemble et identifier le « pourquoi » de l’outil
  • Pour plus de lisibilité fond blanc (90% du web), le texte est noir uniforme et sans effets.
  • La police a été également revue pour plus de lisibilité en casse regular « Subway London ».

Ce nouveau logo se prête à des déclinaisons qui seront annoncées prochainement…