Dans la Google Search Console (GSC), le rapport de couverture, accessible sur la colonne de gauche sous "couverture", permet de faire le point sur l'état de l'indexation de votre site. C'est une mine d'informations à utiliser pour assurer la bonne crawlabilité et indexation de vos contenus.
Si vous n'avez pas encore de compte GSC, il faudra d'abord le créer et faire valider votre propriété.
Le rapport de couverture se présente comme suit :
Avec 4 sections : Erreur, Valides avec des avertissements, Valides et Exclues.
Nous vous recommandons de commencer par la section "Valides" en vert.
Nous détaillons ensuite ici la section que l'on vous recommande de consulter en 2ème temps "Valides avec avertissements" en orange.
Cette section est aujourd'hui associée à un seul problème : Indexée malgré le blocage par le fichier robots.txt.
Explication de l'avertissement
Le robots.txt n'étant pas un outil de désindexation mais de blocage, il est possible que certaines pages soient tout de même visible à Google si un site tiers leur fait un lien.
Interprétation et correction
Cliquez sur la section "Avertissements" :
Puis sur la ligne correspondante de la sous-section "Détails" pour afficher les loste détaillée :
S'il s'agit de pages devant être indexées : les retirer du robots.tx dès que possible pour permettre leur indexation.
Sinon, il faut donc dans ce cas retirer ces pages du robots.txt, les désindexer proprement, puis les remettre dans le robots.txt.
La méthode est détaillée ici : désindexer les pages à faible valeur ajoutée.
Les autres sections du rapport de couverture :
Découvrez les articles similaires :