BLOG

Les nouveaux enjeux du référencement

12 Oct 2012, Posté par D. Bocquelet dans Digital

Recadrons le sujet :

« Le référencement est l’ensemble des actions techniques visant à promouvoir un site internet »:

C’est une définition à nuancer.

Le « technique » est là pour faire la différence avec de la publicité, ou du marketing. Toutefois, c’est aussi incorrect, car une bonne partie du référencement n’est justement pas « technique ». Et cela reflète parfaitement la situation actuelle. Qu’en dit wikipedia ? : « techniques visant à apporter un maximum d’informations concernant le contenu d’une page web aux robots d’indexation des moteurs de recherche. »

En réalité le référencement (SEO en anglais) est une nébuleuse reprenant des éléments communs à d’autres actions visant, de manière globale, à faire connaître un site internet. Et son évolution, depuis une bonne quinzaine d’année a été spectaculaire : Il démarrait jadis avec une simple optimisation (au temps où les utilisateurs de Wanadoo se comptaient sur les doigts d’une main et beaucoup ne juraient (et croyaient encore) au minitel, à une suroptimisation parfois grossière et à présent totalement archaïque (comme le keyword stuffing)…

Il est ensuite passé par une phase d’expansion (on dira même d’explosion) du temps de la première bulle internet, fin 1990-début 2000, lorsqu’il était « in » d’avoir son propre site, sans se préoccuper d’interactivité (ce qu’on appelle aujourd’hui le « web 1.0 »). A cette époque, le terme de « référenceur »  et de « référencement » n’était plus connu des seuls initiés, mais toutes les agence de communications qui se lançaient dans le web en avaient au moins quelques notions. Un certain moteur de recherche, Google, était encore peu connu (arrivé en France en 1999). Puis 2010, la seconde bulle internet, qui ne prend sa pleine ampleur que vers la fin de 2011.

Aujourd’hui, Google règne (toujours) en maître sur le paysage mondial et particulièrement Français de la recherche internet. Beaucoup se demandent encore si faire un site qui plaît seulement aux internautes suffit. Erreur.

Car avant qu’un site internet soit vu par des êtres humains, il doit être « poussé » par les robots au seul niveau efficace des résultats de recherche : La « ligne de visibilité ».

Dans la pratique il s’agit toujours de la zone allant de la première à la 30 position sur la requête recherchée (soit la troisième page sur google).  Les non-professionnels de la recherche internet s’acharnent rarement au-delà. Quand aux veilleurs et autres professionnels de la recherche, ils connaissent les formulations et opérateurs leurs permettant un accès au « web profond » (au delà de cette « ligne de visibilité ») et se placent d’emblée hors de ce classement. Ils sont toutefois une claire minorité, joints par des geeks connaissant aussi des « hacks » de recherche. Les règles du marketing grand public les ignorent donc.

Veille et référencement aujourd’hui se répondent en effet sur la masse considérable de sites internet consultables du web (plus de 582 716 657 à ce jour (source: netcraft)). Le web « visible » n’a fait, sur chaque requête, que reculer, rendant la tâche de recherche de plus en plus difficile, ainsi que celle du référenceur.

La logique de prise d’information et celle des impératifs rentabilité et marketing se téléscopent ainsi et depuis quelques années ont fini par rendre l’utilisation d’outils de filtrage et de crawl complémentaires. Une nécessité pour bien des entreprises effectuant de la veille.

Si on ajoute au matraquage publicitaire via des services comme google adwords, les pratiques « limites » (aujourd’hui sanctionnées par Panda) comme les fermes de liens qui n’apportant aucun contenu, ou encore les résultats commerciaux qui (volontairement) brouillent les résultats « naturels », le travail du référenceur lambda, au budget limité, ne s’en trouve que plus ardu.

Aujourd’hui la profession de référenceur n’est plus inconnue de l’état ni des services publics en général, ce qui est un minimum s’il on songe à faire carrière et à s’y spécialiser. C’est même devenu un ensemble de spécialités, compliquant encore l’organigramme de l’équipe qui se cache derrière un webmaster. Le temps où le webmaster au singulier est bien révolu. Il faut en effet être à la fois webdesigner (codeur CSS et infographiste – deux cultures totalement différentes), Ergonome, Développeur (avec des spécialités qui se comptent par dizaines), Marketeur graphiste (communication), et rédacteur, et enfin référenceur (c’est à dire à la fois codeur sémantique, mapper, rédacteur SEO, linkeur, expert SEO social…).

Les fondamentaux sont toujours là (et encore plus après le lâcher de la ménagerie Google), du contenu, encore et toujours, faire un site « dans les guidelines google » c’est à dire faits pour les internautes. Le message de Google étant toujours de ne pas se préoccuper de leur robot crawler. Or,  les impératifs du moment pour les « grands comptes » imposent les premières places, quelque en soient les coûts. La guerre économique à depuis quelques années investi la scène internet, et les référenceurs s’y sont retrouvés en première ligne. Ce n’est pas pour rien qu’on parle aujourd’hui du remplacement du chef de projet webmaster (à l’ancienne, c’est à dire 70% codeur, 20% webmaster, et 10% référenceur), par un chef de projet SEO. L’évidence est qu’actuellement, le référencement supplante tous autres aspects du sites internet, et pour cause. Avec une telle masse d’information, la seule manière de parvenir aux premières places, de manière « naturelle », est bel et bien de confier le projet à un coordinateur issu du monde du SEO: Un site internet est fait de compromis et d’équilibrages.

Souvent la voix la plus forte (client, principal investisseur ou département marketing) n’était pas la mieux placée sur ces questions. Cela a durant des années fait les affaires de agences spécialisées en refonte de sites internet. Car sur les centaines de million de sites web, les plus anciens ont déjà changé presque entièrement plusieurs fois. Les « changements » d’un site web sont bien sûr avant tout de contenu « frais », préalable à une bonne réindexation régulière, à des ajustements permanents de différents éléments (pas seulement des retouches techniques) jusqu’à la refonte complète. On n’aurait pas l’idée actuellement de proposer un site entièrement en « flash », qui se se maintient que sur quelques types de sites internet de niche (ex. promotion d’un film). Globalement donc le mouvement a été vers la décrue du « tout graphique » vers un meilleur compromis. De nouvelles technologies javascript par ailleurs, SEO-friendly, ont aidé à cette mutation.

Le référenceur, au travers ces évolutions et la croissance fulgurante du web, semble être devenu le professionnel-roi d’internet (ou devrait-on préciser « reine » car elle est fortement féminisée), une acception à tempérer toutefois par la condition de bien savoir s’entourer…