Crawl budget : la plus value CLEATIS

Si vous n’êtes pas familier avec le budget d’exploration, il s’agit d’un chiffre qui indique le nombre de visites que Googlebot peut effectuer sur votre site au cours d’une période donnée. Plus le budget d’exploration est élevé, plus le nombre de pages explorées est important. Si votre site Web a un budget d’exploration extrêmement élevé, cela peut signifier qu’il y a trop de pages sur votre site ou que vous avez des problèmes de contenu dupliqué.

Le budget crawl de votre site

Le budget d’exploration de votre site est le nombre de pages que Googlebot peut explorer avant de se fatiguer. Cette limite est déterminée par le temps que met chaque page à se charger et par la vitesse à laquelle Googlebot peut les explorer (3 à 5 pages par seconde).

Googlebot est le robot d’exploration utilisé par Google, qui ressemble à ceci :

Il est important que vous optimisiez cette page pour qu’elle ne mette pas longtemps à se charger !

Vérifiez si Google explore votre site

  • Allez sur Google Search Console et cliquez sur « Search Analytics ».
  • Faites défiler vers le bas jusqu’à la section « Crawl Stats ».
  • Vérifiez si des erreurs sont répertoriées ou si le nombre d’URL explorées par jour est élevé.

Comment savoir si vous avez un problème crawl budget ?

  • Les problèmes de budget d’exploration peuvent être causés par Googlebot qui explore trop ou pas assez votre site, ou même qui ne l’explore pas du tout.
  • Si Googlebot explore toujours votre site à la vitesse maximale, vous n’avez probablement pas de problème.
  • Si Googlebot explore toujours votre site très lentement ou pas du tout, alors vous avez probablement un problème de budget d’exploration.

Si vous avez un problème de budget d’exploration, Google ne sera pas en mesure d’explorer toutes les pages de votre sitemap. Au contraire, il ne pourra accéder qu’à une partie des pages de votre site Web. Cela signifie que certains visiteurs ne verront pas l’intégralité de votre contenu lorsqu’ils effectueront une recherche sur Google ou sur un autre moteur de recherche.

Le moyen le plus simple de vérifier si vous avez un problème de budget de crawl est de consulter la section « Crawl » sous « Site Crawling » dans Search Console :

Éviter le contenu dupliqué

Vous pouvez éviter le contenu dupliqué en utilisant un fichier sitemap.xml. Un fichier sitemap.xml est un fichier XML qui répertorie toutes les pages de votre site Web et permet aux moteurs de recherche de les explorer plus efficacement.

Pour ce qui est de la réduction du nombre de liens internes, évitez d’avoir trop de liens pointant vers une page de votre site (cela permet également d’éviter les sites de mauvaise qualité).

Enfin, l’ajout d’un fichier robots.txt vous permettra d’ajouter diverses règles pour les robots des moteurs de recherche afin qu’ils n’accèdent pas à certaines parties de votre site. Par exemple, si vous avez une zone d’administration à laquelle vous ne voulez pas que des personnes extérieures à votre entreprise accèdent parce qu’elle contient des informations confidentielles ou une propriété intellectuelle sensible, il vous suffit d’ajouter des règles dans votre fichier robots.txt indiquant à Google de ne pas indexer ces pages !

Vérifiez la structure de votre site

C’est un bon point de départ. Les sites comportant de nombreux liens internes (renvoyant d’une page à une autre au sein du même site) ont plus de chances d’être bien classés que les sites qui n’en ont pas. Si vous n’êtes pas sûr du nombre de liens que vous avez, utilisez un outil comme Ahrefs ou Majestic SEO pour vérifier.

Si vous en trouvez trop peu, envisagez d’ajouter davantage de liens internes en établissant des liens entre les sections de différentes pages ou depuis votre page d’accueil vers d’autres pages pertinentes. Cela aidera Google à comprendre la structure de votre site Web et augmentera son autorité globale !

Il est également important de s’assurer que tous les sites Web externes renvoient vers le vôtre, ce qui contribue à son classement dans les résultats de recherche et améliore la convivialité pour les utilisateurs qui pourraient cliquer sur le vôtre à partir de ces sites externes.

Utiliser un fichier sitemap.xml

Un fichier sitemap.xml est un fichier qui décrit les pages de votre site Web aux moteurs de recherche. Il s’agit d’une sorte de table des matières pour Google, Bing et les autres moteurs de recherche, qui leur permet de savoir ce qu’ils doivent explorer et indexer sur votre site. Un fichier sitemap.xml bien structuré vous aide à identifier les liens brisés, à comprendre comment le contenu est organisé sur votre site Web et à évaluer les performances des pages au fil du temps.

Lorsque vous en construisez un, il y a deux choses principales à garder à l’esprit :

  • N’utilisez pas un outil automatisé – utilisez plutôt le jugement humain. Les outils automatisés peuvent générer des fichiers massifs remplis d’URL obsolètes, ou pire encore, de contenu dupliqué.
  • N’incluez que les pages qui sont importantes pour les utilisateurs ou les annonceurs.

Essayez de réduire le nombre de liens internes sur vos pages

  • Évitez d’avoir trop de liens sur une page.
  • Veillez à éviter les liens profonds, c’est-à-dire les liens vers des pages du même site qui se trouvent à plusieurs niveaux de profondeur et qui nécessitent donc plusieurs clics pour être atteintes.

En suivant ces quelques conseils, vous améliorerez votre budget de crawl. Cleatis peut vous aider dans votre stratégie globale de référencement, contactez-nous !