Optimiser son référencement naturel
Etre bien référencé sur les moteurs de recherche est indispensable pour que se rencontrent l'offre d'un site et la demande des internautes. Conseils d'experts pour déployer une stratégie efficace.
Je m'abonneLES POINTS-CLES
L'enjeu du positionnement d'un site sur la page de résultat d'un moteur est primordial pour toucher sa cible. Selon une étude menée par les sociétés Enquiro et Dit-IT.com, en collaboration avec la société EyeTool, spécialisée dans les systèmes d'eye tracking, l'oeil de l'internaute explore en priorité un «triangle d'or», situé en haut à gauche des pages de résultats de Google. Ainsi, il est possible d'indiquer un taux de visibilité pour chaque rang des liens proposés par le moteur comme suit: 100 % pour les positions 1,2, et 3; 85 % pour la position 4; 60 % pour la position 5; 50 % pour les positions 6 et 7; 30 % pour les positions 8 et 9; et 20 % pour la dixième position... D'où l'importance d'obtenir et de garder les meilleures positions sur les moteurs, en travaillant sur les différents points-clés.
1 Penser le référencement en amont
Il est important de penser au référencement avant que le site soit actif. Car lorsqu'un site internet est mis en ligne et qu'il a été pensé dès sa conception pour être bien référencé par les moteurs de recherche, 80 % du travail de référencement est effectué. Malheureusement, il arrive souvent que les éditeurs créent un site, le mettent en ligne et pensent alors seulement à son référencement. Or cette réflexion arrive trop tard, car se demander combien va coûter le référencement revient à s'interroger sur le coût nécessaire pour redévelopper son site. Lors de la refonte d'un site cependant, on peut reprendre en main son référencement. Et en phase d'optimisation, il faudra concentrer ses efforts sur la règle des 3 C, à savoir le contenu, le code et la conception.
2 Soigner le contenu du site
Les moteurs sont des «obsédés textuels». Il faut donc partir d'un contenu éditorial étoffé et de qualité. Un site de quelques pages est, en effet, très difficile à référencer. De même, un site en Flash pose problème: son contenu est mal lu par les moteurs, qui le considèrent comme vide. Bloquante il y a quelques années, cette technologie constitue encore un frein. La seule solution est de créer un deuxième site en texte. Le premier conseil à suivre est de soigner le titre de la page. Qu'il s'agisse d'un article ou d'un produit, il doit comprendre tous les mots-clés qui correspondent au contenu.
Tout va donc se jouer sur le titre, mais aussi sur le sous-titre, le chapeau et le premier paragraphe. C'est là qu'il faut placer les mots-clés importants. Car plus un mot se trouve en haut de la page et plus il aura de poids pour les moteurs. Le contenu doit également être structuré en langage HTML grâce à des balises H1 à H6 (H pour «header», zone supérieure de la page HTML contenant des informations descriptives, telles que des définitions ou des mots-clés). Ce balisage sémantique consiste en l'utilisation d'éléments HTML pour donner du sens au contenu. Quand le moteur de recherche va regarder ce qui se trouve sur la page, il va chercher ce que contient la balise H1 en premier lieu. S'il y a un sous-titre ou un chapeau, on va les mettre en H2. En tout, il y a six niveaux de titres et de sous-titres. Souvent, on renseigne les balises jusqu'à H2, voire H3.
Autre conseil, les mots importants doivent apparaître en gras, et non en souligné ou en italique. A noter, il vaut mieux utiliser la balise «strong», que les moteurs de recherche identifient, plutôt que «bold», qui ne sert qu'à mettre le texte en gras sur le site. De plus, il ne faut pas oublier d'insérer des liens, qui vont diriger l'internaute vers d'autres pages ou d'autres sites. Ils renforcent la pertinence de la page aux «yeux» des moteurs.
Le texte doit être riche, afin que les moteurs disposent d'un volume suffisant pour analyser le contenu. Dans la pratique, 200 à 300 mots par page constituent une bonne moyenne. A noter, plus le nombre de mots est important et plus le champ sémantique de la page est large, plus il est difficile d'être bien référencé sur un terme précis.
La notion de réputation est aussi très importante. Quand on crée des liens dans le contenu, il faut éviter les «cliquez ici», «pour en savoir plus», «lire la suite»... et privilégier des mots-clés qui correspondent au contenu. Enfin, attention à ne pas écrire pour les moteurs! Il est important d'écrire d'abord pour les internautes tout en tenant compte le plus possible des règles de référencement.
3 Travailler son code HTML
Les deux balises les plus importantes sont les balises «Title» et «Meta description». Certaines règles doivent être intégrées dans le code HTML, pour que celui-ci soit bien compris par les moteurs. En termes de code HTML, la partie la plus importante est la balise «Title», qui s'affiche dans la barre de titre du navigateur. On préconise le plus souvent de reprendre, au début du «Title», le contenu de la balise H1 (titre du contenu principal de la page, par exemple le titre d'une actu sur une page de consultation de brèves), donc du texte éditorial, puis la rubrique, et enfin le nom du site. Dans le «Title», le moteur doit savoir de quoi parle la page. Autre point, la balise «Meta description». On va y insérer 150 à 200 caractères. C'est le texte que vont afficher les moteurs de recherche dans leurs pages de résultats.
A noter, cette zone n'est pas importante en termes de «ranking» (classement dans les résultats de recherche des moteurs).
En revanche, c'est une zone qu'il faut penser en termes marketing, pour donner envie à l'internaute de consulter la page.
4 Optimiser la conception du site
La conception sert à faire en sorte que le site soit comme en «journée portes ouvertes» pour les moteurs. En clair, ces derniers doivent pouvoir facilement indexer toutes les pages. Une fois ce travail effectué, les moteurs vont lire le code et en extraire ensuite le contenu pour l'analyser. Les 3 C sont donc importants dans une stratégie de référencement. En tout premier lieu, il faut créer un fichier «site map» qui donne, pour chacune des pages du site, des informations comme l'URL, la fréquence de mise à jour, la date de dernière modification de la page... C'est la plateforme de maintenance du site qui fournit ce fichier de manière automatique aux moteurs de recherche. Si cela n'a pas d'influence sur le positionnement, cela a une incidence sur la bonne indexation de ces pages. Une grosse partie du référencement consiste, en effet, à faciliter l'indexation de ces pages par le moteur. Bref, un site optimisé est un site qui compte, si possible, 100 % de son contenu indexé et ensuite le plus grand nombre de pages optimisées.
Autre point primordial, toutes les pages importantes à référencer doivent être accessibles, depuis la page d'accueil, en trois clics maximum. Concernant les URL, trois règles importantes sont à appliquer. Primo, les URL des pages doivent proposer des mots-clés, séparés par des tirets (tiret haut et non bas). Secundo, les lettres accentuées doivent être remplacées par des lettres non accentuées. Et tertio, si vous voulez que votre site soit référencé dans Google Actualités, il faut que l'URL contienne au moins trois chiffres.
La popularité est enfin très importante. Cette notion de popularité, Google l'a appelé le «page rank», noté par le moteur entre 0 et 10. Pour augmenter la popularité de son site, il faut obtenir un maximum de liens de pages populaires vers son site. Car si une page populaire fait un lien vers lui, elle vous transmet de sa popularité. De même, une page très peu populaire qui renvoie vers votre site vous transmettra peu de popularité. Un lien n'est cependant jamais négatif.
CONSEILS D'EXPERTS
Yann Gabay, directeur général de Performics
«Pour avoir une vision à long terme et faire du référencement durable, il est nécessaire d'intégrer de nombreuses variables. Il faut notamment aller vers le web social et les tweets qui ont changé la donne. La démarche de temps réel est, en effet, de plus en plus importante et influe sur les pages de résultats. Au sein de Performics, nous cherchons à optimiser le référencement naturel en le croisant avec des données comportementales. Nous travaillons parallèlement avec l'annonceur pour créer d'abord une stratégie de contenu, puis une stratégie de présence en ligne. Aujourd'hui, on ne référence plus un site mais du contenu, où qu'il soit.»
Dominique Cerruti, directeur général de Relevant Traffic
«Le référencement naturel à la performance émerge progressivement. Au sein de Relevant Traffic, nous regardons plus particulièrement les trois leviers suivants: le contenu du site, sa structure et, enfin, sa popularité. Nous utilisons ensuite le Web Analytics pour mesurer les résultats d'une campagne de référencement. Nous essayons enfin de traiter ensemble les problématiques de référencement naturel et payant. Car 1+1=2,5!»
Boris Janssens, responsable e-marketing de Webtraf iz (Groupe Euro Asian Equities)
«Le métier du référencement contient une part de technique, mais pas seulement. Désormais, on essaye de réfléchir de plus en plus en termes d'utilisateur. Plus uniquement en termes de pages web, mais de sources multiples. C'est ce que l'on appelle la recherche universelle.»
ÉTUDE DE CAS
Tribu Gourmande,une communauté visible
Tribu Gourmande est un site communautaire qui propose aux internautes de sauvegarder, de partager et d'imprimer leurs livres de recettes de cuisine. Constatant son manque de visibilité sur les moteurs de recherche, Delphine Stey, la fondatrice du site, décide de confier à l'agence Relevant Traffic le soin d'améliorer son positionnement.
Le problème principal diagnostiqué par l'agence? «Une grande partie des recettes de cuisine n'était pas indexable par les moteurs de recherche, du fait d'une architecture techniquement inaccessible pour les robots d'indexation. De plus, la conception globale ne permettait pas une redistribution correcte du page rank vers les pages profondes du site», explique Sébastien Billard, consultant SEO au sein de Relevant Traffic.
Grâce à l'optimisation du moteur de recherche interne, de l'arborescence du site, l'utilisation des balises sémantiques et l'organisation générale des pages, les résultats ne se sont pas fait attendre. «Le trafic a bien augmenté suite à l'application des recommandations de Relevant Traffic, constate avec satisfaction Delphine Stey. Les problèmes du site ont été résolus et les résultats ont été quasi immédiats. Je regrette simplement de ne pas avoir contacté l'équipe plus tôt, lors de la construction du site... cela aurait fait gagner plusieurs mois de trafic à TribuGourmande.com!», témoigne la fondatrice.
ZOOM
Bing, un moteur à surveiller
En France, Bing détient des parts de trafic encore très faibles, de l'ordre de 2 à 3 %. Succédant à Live Search, il se positionne comme un moteur d'aide à la décision. Dans sa version américaine, il propose déjà, en plus de la recherche classique, des fonctionnalités pour comparer les offres disponibles en ligne. En 2010, Yahoo! et Bing ont annoncé qu'ils utiliseraient la même technologie. «Aux Etats-Unis, ces deux moteurs représentent déjà près de 30 % de part de marché, ce qui constitue une vraie alternative à Google», explique Olivier Andrieu, auteur de Réussir son référencement web. «2010 sera une année charnière où Ton va commencer à réfléchir et à regarder comment fonctionne Bing. Nous avons un an devant nous pour observer ce moteur. D'ici à la fin de l'année, il faudra tenir compte de Bing», ajoute-t-il. Des évolutions à suivre...
PAROLE D'EXPERT
«Notre action est basée sur une triple optimisation »
«Aujourd'hui, on ne peut pas améliorer son référencement naturel si on n'optimise pas, dans sa globalité, son site. C'est le principe de notre action basée sur une triple optimisation: le référencement naturel, les liens sponsorisés et enfin la mise au point technique et marketing du site. Notre objectif ne se résume pas à gagner des positions en référencement naturel. Nous essayons également de proposer en filigrane une vision plus globale des performances d'un site. En effet, drainer du trafic pour qu'in fine l'internaute ne convertisse pas sa visite en acte d'achat n'est pas très intéressant. Il faut donc actionner différents leviers pour rentabiliser les coûts d'acquisition. Nous travaillons beaucoup sur l'éditorial en jouant sur la récurrence des mots, leur densité et en éliminant les termes parasites qui peuvent troubler la perception du site par les moteurs de recherche. Nous respectons également les normes d'accessibilité et les recommandations éditées par le World Wide Web Consortium (W3C), l'organisme américain de standardisation. Google est le plus grand «malvoyant» du monde. Il faut donc lui donner le code le plus propre possible pour qu'il identifie les contenus et leur hiérarchie. Enfin, les «landing pages» (ou pages de destination), et plus globalement le site qui les contient, doivent répondre aux attentes des internautes pour qu'ils ne stoppent pas leur démarche d'achat (descriptifs détaillés, zoom sur les photos, temps de chargement, navigation sur le site, pertinence du moteur de recherche interne, clarté des conditions de livraison et de leur coût...). A noter, Caffeine, le nouvel algorithme de Google, est en version bêta depuis le mois d'août. Nous savons d'ores et déjà qu'il faudra faire tout particulièrement attention au contenu des sites.