Google est un moteur de recherche. C’est un robot doté d’une intelligence relative. Il est souvent perçu comme une boîte noire. Les informations à propos de son mode de fonctionnement pour classer les résultats de recherche sont très empiriques. Malgré cela, il fournit à qui sait les trouver et les interpréter tout un tas d’informations qui en disent long sur la façon dont il perçoit votre site web. En voici un certain nombre dans cet article de notre blog sur le marketing digital.

La quantité de pages indexées

Voilà un excellent indicateur de la qualité de votre site internet. Si la quantité de pages indexées est largement inférieur à la quantité de pages indexables, alors c’est qu’il y a un problème technique ou un problème de contenu. Voici les métriques à regarder :

  • l’index secondaire visible via la commande site:nomdedomaine.fr directement dans Google.com.
  • l’index primaire visible via la même commande mais un moteur de recherche partenaire (par exemple Orange).
  • les pages indexées dans l’onglet Couverture de la Google Search Console.
  • le nombre de résultats dans l’onglet « Ergonomie Mobile » de la Google Search Console.

Les pages qui se trouvent dans l’index secondaire mais pas dans l’index primaire sont jugées de qualité inférieure. Les pages qui ne sont pas indexées sont soit trop récentes, soit orphelines, soit inintéressantes pour le moteur.

La quantité de pages explorées mais pas indexées

Dans la Google Search Console, via l’onglet Couverture, on a les pages exclues de l’index. Deux métriques sont intéressantes :

  • les pages marquées comme Explorée, actuellement non indexée : Googlebot est passé sur la page mais ne l’a pas encore indexée, souvent pour un problème de qualité (mais pas toujours),
  • les pages marquées comme Détectée, actuellement non indexée : Googlebot a découvert l’URL mais ne l’a pas encore visitée et donc pas indexée.

Cette seconde métrique est assez révélatrice. Vous allez constater que dans certains cas, Google décide de ne pas visiter certaines pages et donc de ne pas les indexer alors même qu’elles pourraient avoir un contenu intéressant. Il se baserait sur l’intelligence artificielle pour savoir si une page mérite ou non d’être visitée. Quels sont les signaux qu’il va utiliser pour prendre cette décision radicale :

  • la structure de l’URL : s’il a visité de nombreuses URLs avec une structure semblable qui n’étaient pas intéressantes, les nouvelles pages avec la même structure auront moins de chances d’être visitées.
  • l’endroit où l’URL a été découverte : s’il s’agit d’une page orpheline découverte uniquement via le sitemap ou d’une page mal maillée en interne, là encore il pourra décider de ne pas la visiter.
  • la qualité générale du site : si votre site web est jugé de qualité médiocre ou moyenne, il ne visitera pas toutes les pages.

Le maillage interne est très important pour améliorer l’indexation de vos pages. Mais ce maillage doit être réalisé de façon intelligente avec un glissement sémantique logique entre les pages.

La rapidité d’indexation des nouveaux contenus

Autre métrique intéressante : à quelle vitesse vos nouvelles pages arrivent dans l’index. Cet article sur les dessous de l’indexation vous explique bien comment cela fonctionne. Si votre nouvelle page s’indexe dans les 24-48h après publication, c’est le signe que Google apprécie votre site et votre nouveau contenu. Si au bout d’un mois, la page n’est toujours pas indexée, c’est qu’elle ne présente pas d’intérêt ou que le bot n’est pas parvenu à la découvrir.

La quantité de pages qui se positionnent

Dans l’onglet performance de la Google Search Console, vous pouvez visualiser les clics et les impressions. Les clics correspondent à des visites. Les impressions représentent le nombre de fois où votre site est apparu dans les résultats de recherche.

En regardant quelle quantité de pages apparaissent ici (filtrer par pages), vous pourrez savoir combien de pages sont jugées suffisamment pertinentes par Google pour apparaître sur certaines requêtes. Il s’agit là d’une métrique macroscopique qui n’est pas très granulaire mais c’est déjà une indication rapide. Si seules 10% des pages de votre site génèrent des impressions, il faut se poser des questions :

  • est-ce que mon contenu est suffisamment qualitatif?
  • est-ce que mon maillage interne est bien optimisé?
  • est-ce que mon site inspire confiance?

L’analyse des données de crawl

L’analyse des logs est souvent révélatrice. Si Googlebot ne passe pas souvent sur votre site internet, c’est mauvais signe. Dans l’onglet Paramètres > Statistiques de l’exploration de la Google Search Console, on trouve des éléments précieux. Les pics montrent que Google a détecté un changement important sur votre site web. Les pentes ascendantes marquent un intérêt croissant, soit parce que vous publiez plus de contenu, soit parce que la perception de votre site s’est améliorée. Google visite plus souvent les sites qu’il apprécie le plus.

Mais attention, le temps de chargement des pages et la quantité d’erreurs de crawl peuvent impacter la fréquence à laquelle le bot revient sur votre site. Google s’adapte à votre serveur pour ne pas le surcharger. Les erreurs trop fréquentes vont donc le conduire à réduire la vitesse de crawl.

La perception évolue dans le temps

Le facteur temps joue un rôle important dans la façon dont Google va évaluer votre site. Si vous lancez un petit site de moins de 25 pages, la plupart du temps, il ne se passe pas grand chose dans les 6 premiers mois. Votre site attire peu de trafic et il semble invisible. On appelait cela la sandbox (bac à sable) dans les années 2000. Google mettait votre site de côté pendant quelques mois. En réalité, il ne lui donnait pas la priorité par rapport à d’autres sites plus anciens et établis.

Les sites d’une certaine taille avec des contenus de qualité correcte ne passent pas toujours par cette étape frustrante d’attente. Nous lançons régulièrement des sites d’e-commerce à l’agence Reine du Web. Ces sites ont plusieurs centaines de pages produits et ils commencent à se positionner au bout de quelques jours sans aucun lien, juste grâce à la qualité générale du site.

Donc le volume de contenus joue un rôle essentiel, à condition que celui-ci soit de qualité correcte ce qui nécessite un certain investissement.

L’impact de l’autorité et des liens

Le référencement naturel sur les moteurs de recherche est en partie dépendant des liens que reçoit votre site web. La qualité et la quantité de ces liens vont contribuer à établir une partie de votre autorité. Cela fait partie des facteurs clés de classement pour chaque page et chaque site.

Google fournit dans la Google Search Console une partie des liens trouvés au fil de ses explorations. Il ne donne cependant aucune indication sur la façon dont il perçoit ses liens. Tous les liens trouvés ne sont pas indiqués. Il ne donne qu’un échantillon. Auditer un profil de liens se fera donc avec un autre outil plus exhaustif comme Seobserver ou Ahrefs.

Le mythe de l’évaluation humaine

Il existe un mythe très répandu selon lequel des employés de Google passeraient régulièrement sur chaque site internet pour ensuite voir comment les classer les uns par rapport aux autres. C’est évidemment faux car logistiquement impossible.

Google paie des quality raters pour évaluer les sites par rapport à un certain nombre de critères mais le but de cet exercice est uniquement d’évaluer la pertinence des résultats de recherche par rapport à la requête. Les quality raters vont relever les anomalies pour permettre ensuite d’améliorer l’algorithme. Le but ici n’est pas de repositionner tel ou tel site mais de modifier l’algorithme de classement pour impacter à la hausse ou à la baisse tous les sites présentant les mêmes signaux.

La seule situation où Google agit manuellement au niveau d’un site, c’est pour donner une pénalité manuelle lorsqu’il y a eu un abus manifeste au niveau de l’optimisation du référencement SEO et que cet abus n’a pas été détecté par les algorithmes de façon automatique, ce qui est de plus en plus rare.

Le référencement naturel nécessite une analyse précise de nombreux critères. L’utilisation d’outils peut vous aider dans cette tâche et Google en met de nombreux à notre disposition. Cependant, rien ne remplace l’expérience pour appréhender chaque situation particulière et définir une stratégie d’optimisation adaptée. C’est ce que nous faisons tous les jours à l’agence!

Ambre
Ambre

Trobairitz du SEO depuis 2005, contribue à la création de nouveaux royaumes au sein d’une joyeuse troupe d’expertes en marketing digital.