La profondeur d'un site désigne le nombre de clics maximum requis pour atteindre la totalité des pages.
Il est recommandé d'avoir une profondeur maximale de 4. Au-delà, il peut y avoir plusieurs conséquences sur la santé de votre site : 

  • la crawlabilité du site sera mise en danger et le robot passera de moins en moins souvent. En effet, Googlebot a des ressources allouées au crawl d'un site en fonction de plusieurs critères, comme la qualité du contenu et la performance du serveur. La profondeur de clic en est un critère important.
  • perte de position ou faible visibilité : en plus des critères d'optimisation on-page et technique, l'autorité d'une page a une part importante dans son positionnement (le poids dépendra des thématiques). Cette autorité peut être acquise, soit via des liens externes (backlinks) directement, soit via la distribution des liens internes (depuis la Home, la catégories parentes). Or, si la page est très profonde, elle reçoit une autorité "très diluée" et donc peu performante ==> sa position stagne, ou, si la profondeur s'effectue progressivement dans le temps, sa position va chuter.

Comment donc mesurer la profondeur des pages et interpréter les résultats ?
Nous vous recommandons d'utiliser un crawler, la plupart permettent de lister les pages et leur profondeur.
C'est ce que nous faisons dans le cadre d'un audit.

La profondeur de clics maximale

Consultez tout d'abord la profondeur de clics maximale :

  • Si elle est inférieure ou égale à 4 : tout est bon, vous n'avez pas de problème de profondeur.
  • Si elle est supérieure à 4 : il faut passer au point suivant

Le pourcentage d'URLs concernées par une profondeur > 4

Les pages profondes concernent-elles 20-40 ou 70% des pages de votre site ? Plus il y a de pages concernées, plus l'impact et donc la priorité de traiter ce point sera élevée.
Consultez ensuite la liste des pages concernées, puis vérifier dans quel cas vous vous trouvez : 

  • Problème lié à la pagination

Si votre site contient plusieurs produits par catégorie, la pagination peut générer une profondeur très importante. Imaginons que vous ayez 30 pages produits au sein d'une même catégorie, si vous avez une pagination incrémentale du type "1, 2, 3, 4, .., 29, 30" ou "précédent, suivant" : votre site aura une profondeur de 31 minimum.
==> Repérez ces pages dans la liste puis modifier la gestion de la pagination.
Il peut s'agir à la fois de pages de listings paginées et de pages produit, étant donné que ces dernières arrivent juste après les listings, elles sont forcément plus profondes.

La même réflexion s'applique pour les blogs : imaginons que vous ayez un blog wordpress avec une pagination incrémentale "précédent/suivant" et que vous publiez 5 articles par semaines environ ==> la profondeur ne va pas cesser d'augmenter et l'article qui avait beaucoup de succès en juin 2017 en aura beaucoup moins en 2020 : sa position chute, à mesure que les liens qu'il reçoit deviennent profonds et dilués.
==> Repérez ces pages dans la liste puis modifier la gestion de la pagination.

  • Autre cause

S'il ne s'agit pas de problème de pagination, c'est alors la structure même du site qu'il faut revoir : une profondeur importante indique que l'on a beaucoup de niveaux. Dans ce cas, il faut se demander si les catégories intermédiaires sont utiles en SEO, et les remplacer par des filtres dynamiques par exemple pour "économiser" des niveaux.
Une profondeur importante est aussi un frein en ergonomie pour l'utilisateur.

Et voilà, vous savez tout sur les best practices à avoir au niveau de la profondeur de son site !

En savoir plus sur le même sujet : 

Pagination : comment la gérer pour votre site ?

Fil d'ariane : repérer et corriger les erreurs

Avez-vous trouvé votre réponse?