Nouveauté Search Console : comment résoudre les problèmes d’indexation ?

Qu’est-ce que le Search console ?

Google search console, anciennement connue sous le nom de Google Webmaster Tools, est une plateforme qui permet de vérifier si un site Web est indexé par Google et également assister dans l’optimisation de son référencement. Il permet, entre autres de :

  • Réduire la fréquence d’exploration du site web.
  • Dresser la liste des pages internes et externes au site qui contiennent des liens retour.
  • Connaître au jour le jour les mots-clés des recherches qui ont affiché un lien vers le site et le nombre de fois où ils ont conduit à une consultation du site.
  • Accéder, grâce à Googlebot, aux statistiques de visites du site.
  • Intégrer et contrôler la validité d’un sitemap.
  • Créer et vérifier la validité d’un fichier robots.txt
  • Faire connaître le domaine à afficher par Google ainsi que les pages proposées au-dessous de celui-ci.
  • Obtenir des éventuelles suggestions d’amélioration HTML de son site.
  • Recevoir un rapport d’erreurs sur les AMP (Google accelerated mobile pages).
  • Solliciter la suppression d’URL d’index.

Qu’est-ce qu’une page indexée ?

Une page indexée est une page enregistrée dans la base de données d’un moteur de recherche à la suite d’une analyse réalisée par un robot d’indexation, par exemple le Googlebot. C’est l’indexation qui permet à une page de s’afficher dans la page de résultats de recherche en réponse à une requête lancée par un internaute. Vous avez donc compris, l’indexation influe considérablement sur le référencement des sites Web.

Raisons techniques de la non-indexation des pages Web

Il existe des nombreuses raisons qui mènent à la non-indexation des pages Web :

  • Elle ne peut pas s’afficher correctement si elle renvoie un autre code HTTP que 200.
  • Elle ne peut pas être crawler et par conséquent indexée lorsqu’elle est bloquée dans le fichier robots.txt.
  • La présence d’une balise meta robots noindex ou none permet qu’elle soit crawlée mais pas indexée.
  • L’envoi d’un en-tête HTTPX-Robot-Tag noindex ou none permet qu’elle soit crawlée mais pas indexée.
  • La présence d’une URL canonique différente peut éventuellement permettre l’indexation sous l’autre URL (la canonique).

Le rapport de couverture de l’index

Ce rapport fournit un aperçu de l’indexation des URL à partir d’un site Web. Les URLs correctement indexées s’affichent et pour celles qui ne le sont pas on reçoit des avertissements sur les problèmes éventuels et les raisons qui font que Google ne soit pas en mesure de les indexer. À chaque barre du graphique correspond un nombre total d’URL avec un état particulier connu de Google :

  • Erreur : la page n’a pas été indexée. La consultation du descriptif de l’erreur permet de mieux le comprendre et comment les corriger. Ils sont prioritaires.
  • Avertissement : la page est indexée, ou l’était jusqu’à récemment. Il est donc conseillé de prendre connaissance de son problème.
  • Exclue : pour des raisons qui échappent à votre contrôle, la page n’est pas indexée et se trouve à une étape intermédiaire du processus d’indexation.
  • Valide : la page a été indexée.

La grande nouveauté de Google Search console se trouve dans l‘interactivité du rapport :

  • Lorsqu’on détecte un problème particulier, il suffit de cliquer sur l’URL de l’erreur correspondante pour afficher les détails de la page avec des liens vers des outils de diagnostic qui permettront de comprendre les origines du problème.
  • Corriger les erreurs requiert le plus souvent le concours d’autres personnes. Il est dorénavant possible, dans la plupart des rapports, de partager temporairement le rapport en question avec d’autres personnes afin de travailler ensemble à la recherche d’une solution de manière plus rapide et efficace. Le lien de partage n’autorise que l’accès au rapport partagé, ainsi qu’aux historiques de validation pour le problème en cours.
  • Il est désormais possible de valider le correctif depuis le search console. Google va analyser et réexaminer l’URL affectée avec la priorité maximale, en aidant ainsi le site à se remettre très rapidement sur la bonne voie.
  • Le sitemap est le meilleur moyen de permettre aux moteurs de recherche de connaître les URLs mises à jour tout en facilitant le fonctionnement du rapport de l’index.

Le rapport d’état AMP a également bénéficié d’améliorations et son fonctionnement est identique au rapport de couverture de l’index. Il est ainsi possible d’indiquer à Google lorsqu’un correctif a été déployé pour que le crawl soit mis en place.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

L'auteur

Eric Huertas

CEO & Consultant E-Business
Expert en optimisation digitale eric met à profit son savoir faire pour répondre au besoin des TPE, PME et Grand Comptes de rentabiliser leurs investissements web et de booster leur activités commerciales.

WordPress Video Lightbox Plugin