Les 10 choses a ne pas faire sur son site

– Vérifiez le fichier robots.txt
ce fichier se trouve à la racine de votre site, il vous faudra un client ftp et les login/password pour y accéder.

Ce fichier donne des instructions aux bots des moteurs de recherches. C’est notamment là qu’est indiqué si le site doit être indexé ou pas pour chaque partie/page du site.

Toutes les pages ou répertoires situés dans « Disallow: » seront ignorés.

– Vérifiez la balise META pour robots
Une même fonction est accessible sur chaque page web. Dans le balises META. Ces balises sont invisibles sur la page, on les trouve dans le code source, allez dans le menu affichage>source et cherchez meta name=’robots’ (dans les 10-15 premières lignes). Si vous y trouvez une valeur « noindex » et/ou « nofollow » cela indique aux moteurs de ne pas indexer le site et de ne pas en suivre les liens. C’est pas bon.

– Votre site est tout en flash
Vous avez un très beau site, avec animation, jeux de lettres, interactif… utilisant la technologie flash. Sachez simplement que les moteurs de recherches ne savent pas lire le contenu d’un flash et que donc ils ne trouvent rien sur votre site bloquant par là même son indexation.

Il n’est pas question de tout refaire, le flash a de nombreux avantages, mais assurez vous que les balises et techniques spécifiques à un référencement de site flash soient bien utilisées

– Avez vous suffisamment de liens internes ?
Toutes vos pages sont elles liées, n’avez vous pas des pages orphelines ? C’est à dire des pages toutes seuls qui ne seront donc pas visitées ni référencées. C’est la qualité de vos liens et de leur ancre (mots sur lesquels l’internaute click) qu’il faut vérifier.

– Le piège de la police ?
Utilisez vous une police de caractère particulière ? Le piège est que les polices particulières n’étant pas disponibles dans le navigateur, on réalise le site et les textes dans des images pour pouvoir afficher ce que l’on veut (en terme de police). Mais cela a pour effet qu’il n’y a plus de texte sur le site, mais que des images, que les moteurs de recherches sont incapables de lire.

– Avez vous du contenu, de qualité ?
Si votre site ne fait que 3-4 pages avec comme seule information le type de chambres, les tarifs et un plan d’accès, alors vous n’avez pas de contenu, c’est juste une liste de caractéristiques, cela n’intéresse que peu les moteurs de recherches qui se focalisent sur la qualité. Créez des dizaines de pages, une par type de chambres, avec photos, une pour le PDJ, une pour la resa, une pour le contact, une pour les bons plans, une pour présenter le personnel, l’équipe, une pour les avis, une faq, etc….

– Votre serveur est il à la hauteur ?
Google prend en compte le temps de réponse et de chargement dans son algorithme de classement des résultats. Si votre site « rame », qu’il est lent, que les pages mettent du temps a s’afficher, vous serez pénalisé !

– Votre contenu est il unique ?
Les moteurs (et les internautes) apprécient l’originalité, ils n’aiment pas relire la même chose plusieurs fois. Il est inutile de recopier toute la section « attraits locaux » du site de l’office du tourisme. Google le repèrera aussitôt et n’inclura pas vos pages dans l’indexe, l’internaute en pensera ce qu’il veut. N’ayez pas peur de ceux qui « voleraient » votre précieux et unique contenu, google sait qu’il est apparu en premier chez vous et que donc c’est le votre, c’est les « suiveurs » qui sont pénalisés !

– Du texte caché
On peu penser que cacher quelque mot clef dans la page fait du bien au référencement. Mais comment cacher du texte ? Tout simplement en écrivant de la même couleur que le fond de la page. Si j’écris en noir su fond noir, le texte est alors invisible pour l’humain (mais pas pour le moteur, ce qui aurait pu rendre la méthode intéressante). Cela marche aussi en cachant le texte hors de la page (a 3000 pixels a gauche par exemple) grâce aux CSS.

Heureusement, les moteurs détectent ce genre de méthodes malhonnête et pénalise aussitôt le site l’utilisant.

– Ne pas avoir d’outils d’analyse !
Le premier étant l’analyse des logs du sites qui vous fournissent une très bonne information sur vos visiteurs, le temps passé, les pages visitées, les apporteurs, les mots clefs utilisés pour arriver chez vous, … Cela permet d’ajuster le site en fonction des analyses effectuées.