Conseil de la semaine : Comprenez Googlebot pour un SEO optimal

27 novembre 2012

  • Récolter du trafic provenant des moteurs de recherche est un pari pouvant être gagné de différentes manières.
  • Nous allons voir dans cet article quel est le fonctionnement de Google en matière d’indexation des pages d’un site.
  • Le but est donc ici de comprendre à quelle fréquence les robots de Google passent sur vos pages web par exemple afin d’optimiser l’indexation et afin d’optimiser le référencement naturel de votre site.
 
Seo et googlebot

Fonctionnement de Googlebot

  • Googlebot est un robot d’exploration des pages web de Google. On l’appelle également « spider » en anglais. Le robot Googlebot recherche des pages qui ont été mises à jour ou qui sont nouvelles. Il les ajoutera ensuite à l’index Google.
  • Grâce à un réseau d’ordinateurs, Google explore des milliards de pages Web en très peu de temps.
  • Le robot Googlebot utilise des algorithmes qui déterminent les sites à explorer, la fréquence d’exploration et le nombre de pages à extraire de chaque site…
  • Dans un premier temps, Googlebot explore les URL de pages Web recueillies précédemment. Et à ces URL viennent s’ajouter les données dites « sitemap » fournies par les webmasters.
  • En résumé, le rôle de Googlebot est de parcourir les sites en suivant les liens.
 googlebot et seo

Comment sont référencées les pages web grâce aux crawlers?

  • Ainsi, le robot de Google trouve :
    • les nouveaux sites
    • les modifications de sites existants 
    • les liens rompus 
  •  Ces derniers sont ensuite répertoriés et utilisés pour mettre à jour l’index complet de Google. Le moteur de recherche doit donc « partir à la recherche » des nouveautés sur la toile. Il doit découvrir les nouveautés dans le but d’enrichir son index.
  • Comment sont crawlées les pages web ? Tout simplement en fonction de leur popularité. La popularité d’une page web est liée au nombre de liens, nombres de visites mais également aux interactions sociales et au partage sur les réseaux sociaux.
  • Ainsi, votre seul souci ici est de rendre accessible votre site web au crawler en favorisant un bon référencement et une activité dynamique sur les réseaux sociaux.
  • A noter que vous pouvez suivre l’activité du crawler Googlebot avec Google Webmaster Tools. Vous pourrez ainsi vous rendre compte si Google est passé sur vos pages web et les a indexées.
  • Si vous souhaitez faire en sorte d’optimiser vos landing pages afin que Googlebot soit plus efficace, certaines actions sont nécessaires comme avoir une stratégie de rédaction de contenu unique et efficace.

Astuces SEO…

  • Si vous souhaitez empêcher Googlebot d’explorer votre site, vous pouvez utilisez un fichier robots.txt pour bloquer l’accès aux fichiers et aux répertoires sur votre serveur.
  • Toutefois, si Googlebot continue d’explorer les pages bloquées dans votre fichier robots.txt, pensez à vérifier que celui-ci est placé au bon endroit.
  • La page Erreurs d’exploration des Outils pour les webmasters liste les problèmes rencontrés par Googlebot lors du passage sur votre site. Pensez à vérifier quotidiennement ces erreurs d’exploration afin d’identifier les problèmes sur votre site.
Sur le même sujet :   Conseil de la semaine : Favorisez le bon référencement de vos vidéos !

Ainsi, après avoir compris le fonctionnement de Googlebot, vous pouvez faire en sorte d’optimiser le référencement des pages de votre site web en mettant votre contenu à disposition des crawlers.

Avez vous trouvé cet article utile ?

Cliquez sur une étoile pour voter

Note moyenne 4.8 / 5. Total des avis : 23

Pas de vote à ce jour, soyez le premier à donner votre avis