La course de la première page de Google
Bien le bonjour à vous tous,
Alors quoi de neuf ?
Vous êtes toujours dans la course pour être dans la première page de Google ?
D’avoir un max de visiteurs ?
De vendre un maximum ?
Pas mal l’entrée en matière !
Allez, on l’est tous, il ne faut pas se leurrer, alors bien sûr :
– On fait du référencement ou pas,
– On cherche à faire du linking de folie ou peut-être pas,
– Du contenu en veux-tu en voilà.
Enfin, vous faites tout ce qui est possible de faire, mais voilà, guère de résultat, votre taux de visiteurs n’augmente pas beaucoup et si vous êtes un commerce, une boutique, les ventes ne sont guère reluisantes.
Alors il est vrai qu’en règle générale, c’est une affaire de technique SEO, mais pas toujours, parfois, cela ne vient pas forcément de ce que vous faites en dehors de votre site, mais plutôt votre site en lui-même.
Comme vous le savez Google ne supporte pas qu’on lui cache quoique se soit, qu’on l’empêche de venir pointer le bout de son museau robotique sur l’ensemble des pages web de votre domaine.
C’est un petit curieux, voir surtout un espion de première, mais pas dans le genre James bond 007, que nenni, lui au moins il avait de la classe.
Le Google est un char d’assaut, un exterminator qui a besoin de tout voir pour vérifier afin qu’il puisse asseoir sa pleine domination (autorité) et pour cela il doit avoir accès à tout ce que vous avez mis sur la toile, sinon, si vous ne le faites pas, vous risquez de vous en mordre les doigts.
Vous pouvez vérifier si votre site est bien indexé sur Google (Indexer correctement son site sur Google)
Mais soyons réaliste, on ne veut pas toujours que Google puisse traîner sur certaines pages, donc nous verrons aussi comment lui barrer la route et lui dire, aller, va voir ailleurs, mais pas vos visiteurs, eux, il faut qu’ils puissent parcourir vos pages.
Laisser passer Google sur votre site ou pas
Nous allons voir ensemble les 5 raisons qui peuvent empêcher Google d’indexer vos pages ou faire en sorte qu’il ne puise les indexer.
Les lignes du fichier txt
En premier lieu du box-office, nous avons les erreurs dans le fichier robot.txt
Une erreur fréquente est que vous ayez ce code dans votre fichier txt :
User-agent :*Disallow:/
Donc il faut supprimer cette ligne pour laisser libre accès au robot de l’indexer.
Par contre, si vous souhaitez exclure des pages ou des répertoires entiers de l’indexation voici comment faire, ajouter dans votre fichier robot.txt
Pour un fichier (page) :
User-agent: *
Disallow: /directory/name-of-file.html
Pour exclure un répertoire ou une catégorie complète :
User-agent: *
Disallow: / premier-répertoire /
Disallow: / second répertoire /
Mais attention à ne pas faire n’importe quoi, ne pas tout interdire, ou partiellement (si vous ne le voulez pas) ou son contraire.
Par contre en excluant quelques pages ou catégories, cela n’empêchera pas vos visiteurs de venir dessus, mais cela ne sera pas visible pour Google et par conséquent réduire le nombre de pages présentes sur la toile, c’est à vous de décider en tout état de cause.
Utilisation d’une balise
Deuxième raison l’utilisation de la balise noindex
Vous savez tous, ou presque que la balise meta robot noindex sur une page se traduit par un refus d’être indexé par les moteurs.
Il vous faut vérifier si vous avez ce type de balise dans le head de votre page et supprimer cette balise si vous voulez être indexé.
Maintenant, pour une raison ou une autre, vous voulez exclure une page précise des résultats de recherche, tout en interdisant de suivre également les liens présents sur cette page, c’est simple dans la partie HEAD de votre page pensez à ajouter ce code :
<meta name = “robots” content = “noindex, nofollow”>
Et si vous voulez seulement ne pas faire indexer la page, mais que les moteurs suivent tout de même les liens qui y sont, il faut placer toujours dans le HEAD, cette balise :
<meta name = “robots” content = “noindex, follow”>
Ces deux types de balises empêcheront les moteurs de l’indexer, certes, mais pas vos visiteurs et c’est le principal.
Code d’état HTTP
La troisième est le code d’état HTTP
Nous savons tous que chaque page se voit attribuer un code d’état HTTP, en gros, vous avez :
200 : pour le succès de la requête
301, 302 : la redirection soit permanente ou/et temporaire
403 : l’accès est refusé
404 : la page est non trouvée
500 et 503 : et ces deux-là pour les erreurs de serveur.
Inutile de parler du code 200 tout est OK, par contre bien vérifié vos redirections les 301, qui permettent à vos visiteurs d’être redirigés des anciennes pages aux nouvelles et surtout vérifier bien les autres erreurs de code.
Accès avec mot de passe
Pour le quatrième, il concerne l’accès avec mot de passe
Si pour une raison ou une autre, vous souhaitez protéger votre site, une catégorie ou répertoire ou bien encore une page avec un mot de passe, vous comprenez bien que les moteurs ne peuvent y accéder et que seuls les visiteurs possédant la clef pourront y aller, en d’autres termes, vous excluez tout le monde sauf ceux que vous aurez privilégiés.
Alors c’est votre droit, mais soyons réalistes, ce n’est pas très bon en terme de visiteur, qui risque de trouver cela louche ou s’en offusquer, mais c’est aussi un problème pour les moteurs qui peuvent-vous le faire payer, à vous de voir.
JavaScript et cookies
Enfin la dernière, l’utilisation de JavaScript et de cookies
Parfois, la complexité du JavaScript et de cookies peuvent être un obstacle pour le passage des moteurs de recherche et ils ne peuvent lire intégralement voir pas du tout et cela peut avoir un impact.
Bien qu’a priori, ils seraient (les moteurs de recherche) en cours pour franchir cet obstacle.
Vous faites comme vous voulez, mais faites au plus simple concernant ces deux utilisations, ainsi, vous n’aurez aucun souci.
Pour faire toute ses vérifications, vous avez bien entendu, plusieurs moyens à votre disposition :
Google webmaster tools et Bing webmaster tool
À moins que vous ne connaissiez un outil permettant de faire ces vérifications, surtout pensez à venir en discuter.
Allez amuser vous bien, on se revoit sur le forum
Sorcierenat en collaboration avec Cnathalie