Identification des modèles de performances de recherche avancée de GSC (et que faire à leur sujet)

Google Search Console est de loin l’appareil le plus utilisé dans la boîte à outils du SEO. Non seulement cela nous fournit la meilleure compréhension possible du comportement de Googlebot et de la perception de nos propriétés de domaine (en termes d’indexabilité, de convivialité du site, etc.), mais cela nous permet également d’évaluer les KPI de recherche que nous travaillons si rigoureusement améliorer. GSC est gratuit, sécurisé, facile à mettre en œuvre et abrite la forme la plus pure de ton données KPI de performances de recherche. Cela semble parfait, non ?

Cependant, le manque de capacité à analyser ces KPI à plus grande échelle signifie que nous pouvons souvent manquer des points cruciaux qui indiquent les véritables performances de nos pages. La limitation à 1 000 lignes de données par demande et le filtrage restreint rendent l’affinement des données et la découverte de la croissance fastidieux (ou presque impossibles).

Les référenceurs adorent Google Search Console – il a les données parfaites – mais malheureusement, ce n’est pas l’outil parfait pour interpréter ces données.

Pour info : il y a une API

Afin de commencer à tirer le meilleur parti possible de GSC, une option consiste à utiliser une API qui augmente le montant de la demande à 25 000 lignes par tirage. La merveilleuse Aleyda Solis a créé un rapport Google Data Studio exploitable à l’aide d’une API très facile à configurer et à configurer selon vos besoins.

Vous pouvez également utiliser quelque chose prêt à l’emploi. Dans cet article, les exemples utilisent Ryte Search Success car il permet de travailler beaucoup plus facilement, plus rapidement et plus efficacement avec ce type de données à grande échelle.

Nous utilisons quotidiennement Search Success pour plusieurs projets, que nous assistions un client sur un sujet spécifique ou que nous effectuions des optimisations pour nos propres domaines. Donc, naturellement, nous rencontrons de nombreux modèles qui donnent une meilleure indication de ce qui se passe sur les SERP.

Quelle que soit la manière dont vous utilisez les données de performances de recherche de GSC, vous pouvez en faire un chef-d’œuvre qui vous garantit de tirer le meilleur parti de vos mesures de performances de recherche ! Pour vous aider à démarrer, je vais vous montrer quelques modèles avancés et, franchement, passionnants que j’ai souvent rencontrés lors de l’analyse des données de performances de recherche.

Alors, sans plus tarder, allons-y.

Les mises à jour de base vous ont déprimé ?

Lorsque nous analysons les mises à jour principales, elles ont toujours la même apparence. Ci-dessous, vous pouvez voir l’un des exemples les plus clairs d’une mise à jour de base. Le 6 mai 2020, il y a une chute spectaculaire des impressions et des clics, mais ce sur quoi il est vraiment important de se concentrer, c’est la forte baisse du nombre de mots-clés de classement.

Le nombre de mots-clés de classement est un KPI important, car il vous aide à déterminer si un site augmente régulièrement sa portée et la pertinence de son contenu. De plus, vous pouvez le relier aux volumes de recherche et aux tendances au fil du temps.

Dans ce projet, nous avons trouvé des centaines de cas qui ressemblent exactement aux exemples ci-dessous : les termes lucratifs gravissaient les pages deux et trois (alors que Google perçoit la pertinence du classement) avant de finalement se hisser dans le top 10 à tester.

Il y a une augmentation correspondante des impressions, mais le taux de clics pour ce mot clé important est resté à un maigre 0,2 %. Sur 125 000 recherches, la page n’a reçu que 273 clics. Ce n’est clairement pas suffisant pour que ce domaine reste dans le top 10, donc lors du déploiement de Core Update, Google a rétrogradé ces sous-performants importants.

L’exemple suivant est très similaire, mais nous voyons une altitude plus élevée sur la première page en raison du fait qu’il y a moins d’impressions. Google visera probablement à obtenir des résultats statistiquement pertinents. Ainsi, moins un mot clé a d’impressions, plus les tests doivent durer longtemps. Comme vous pouvez le voir, 41 clics sur 69 000 impressions montrent qu’aucun internaute n’a cliqué sur le site via ce mot-clé commercial. Ils sont donc revenus aux pages deux et trois.

Il s’agit d’un modèle typique de mise à jour de base que nous avons vu des centaines de fois. Cela nous montre que Google recherche également clairement ces modèles afin de trouver ce qui pourrait ne pas être pertinent pour leurs utilisateurs et ce qui peut dire adieu à la première page après une mise à jour.

Visez à réussir ces “Top 10 Tests” avec brio

Nous ne pouvons jamais savoir avec certitude quand Google déploiera une mise à jour de base, et nous ne pouvons jamais être pleinement sûrs de ce qui entraînera une rétrogradation. Cependant, nous devrions toujours essayer de détecter rapidement ces signes révélateurs et réagir avant même qu’une mise à jour de base n’ait été pensée.

Assurez-vous d’avoir mis en place un processus qui traite de la découverte des CTR inférieurs à la moyenne et de tirer parti de tactiques telles que les tests de copie d’extraits et la génération de résultats enrichis ou d’extraits en vedette, qui viseront à dépasser les attentes de Google en matière de CTR et à sécuriser vos 10 premières positions.

Bien sûr, nous assistons également à ces “Top 10 des tests” classiques en dehors des Core Updates de Google !

Cet exemple suivant provient de notre propre sous-domaine bien-aimé en.ryte.com, qui vise à générer des prospects vers nos services et héberge notre vaste wiki et magazine de marketing en ligne, de sorte qu’il génère naturellement du trafic pour de nombreuses requêtes à but informatif.

Voici les performances de classement pour le mot-clé “bing” qui est une requête de navigation typique avec des tonnes d’impressions (c’est un certain nombre d’utilisateurs de Google qui recherchent Bing !). Nous pouvons voir clairement les 10 meilleurs tests lorsque les pics bleu clair montrent une augmentation correspondante des impressions.

Alors que cela ressemble à une quantité juteuse d’impressions à attirer sur notre site, en réalité personne clique sur nous parce que les internautes souhaitent accéder à bing.com et non à notre article d’information Wiki. Il s’agit d’un cas clair d’intention de recherche partagée, où Google peut faire apparaître des documents d’intention variables pour essayer de répondre à ceux qui sont en dehors de leurs hypothèses. Bien sûr, le CTR de 0% prouve que cette page n’a de valeur pour personne, et nous avons été rétrogradés.

Chose intéressante, cette perte de position nous a coûté une sacrée charge d’impressions. Cela a provoqué une énorme baisse de «visibilité» et a donc donné l’impression que nous avions été dramatiquement touchés par la mise à jour de base de janvier. En y regardant de plus près, nous avons constaté que nous venions de perdre cette requête et des requêtes de navigation similaires telles que “gmail” qui rendaient la baisse globale des KPI pire qu’elle ne l’était. En raison du manque d’impact que cela aura sur nos clics engagés, ce sont des classements abandonnés sur lesquels nous ne perdrons certainement pas le sommeil.

Viser un classement élevé pour ces termes à volume de recherche élevé avec une intention que vous ne pouvez pas satisfaire n’est utile que pour optimiser les «indices de visibilité». Demandez-vous si cela vaut la peine de consacrer votre temps précieux à ces derniers, car bien sûr, vous n’allez pas apporter de précieux clics sur vos pages avec eux.

Ne perdez pas de temps à rechercher des requêtes volumineuses qui ne profiteront pas à vos objectifs commerciaux

Au cours de ma carrière dans le référencement, j’ai parfois emprunté la mauvaise voie en passant du temps à optimiser des mots-clés juteux avec un volume de recherche considérable. Le plus souvent, ces classements n’apportaient que peu de valeur en termes de qualité du trafic simplement parce que je n’évaluais pas correctement l’intention du chercheur.

Ces jours-ci, avant d’investir mon temps, j’essaie de mieux interpréter lequel de ces termes apportera de la valeur à mon entreprise. Le mot clé m’apportera-t-il des clics ? Ces cliqueurs resteront-ils sur mon site Web pour atteindre quelque chose d’important (c’est-à-dire y a-t-il un objectif pertinent en tête ?) Ou est-ce que je poursuis ces classements pour des raisons de vanité ? Évaluez toujours l’impact de ce classement élevé sur votre entreprise et ajustez vos stratégies en conséquence.

L’exemple suivant concerne le terme “SERP”, qui est hautement informatif et probablement utilisé uniquement pour savoir ce que signifie l’acronyme. Pour une telle requête, nous ne nous attendrions pas à un nombre écrasant de clics, mais nous avons essayé d’utiliser une meilleure copie d’extrait afin de transformer l’intention de réponse en intention de recherche, et donc de générer plus de visites.

Cependant, cela n’a pas vraiment fonctionné. Nous avons été pré-qualifiés à la page deux, puis testés à la première page (vous pouvez voir l’augmentation correspondante des impressions ci-dessous), mais nous n’avons pas répondu aux attentes avec un faible CTR de 0,1 %, et nous avons été redescendus.

Encore une fois, nous ne sanglotions pas dans nos bonnes bières bavaroises à propos de la perte. Il existe de nombreux autres sujets intéressants, générateurs de trafic, qui méritent notre attention.

Soyez toujours à l’affût de ces sous-performants CTR

Quelque chose sur lequel nous étions heureux d’agir était l’article wiki “méta-mots clés”. Avant d’avoir un moment de silence pour le fait que les “méta-mots clés” sont toujours très recherchés, remarquez comment nous sommes passés de la page quatre à la page un à l’extrême gauche du graphique. Nous n’étions pas au courant du mouvement de ce mot-clé, et donc son extrait simple était rarement cliqué et nous sommes tombés en arrière.

Après quelques mois, le classement de la première page a refait surface, et cette fois nous avons pris des mesures après l’avoir rencontré dans notre rapport CTR Underperformer. L’extrait a été adressé pour cibler celui de l’intention du chercheur, et la page a été améliorée en parallèle pour donner une meilleure réponse directe aux questions principales.

Non seulement cela a eu un impact positif sur notre CTR, mais nous avons même obtenu le Featured Snippet. Il est super important d’identifier ces 10 meilleurs tests à temps, afin que vous puissiez toujours agir et faire quelque chose pour rester en tête du top 10.

Nous avons identifié cela et de nombreuses autres requêtes sous-alimentées à l’aide du rapport CTR Underperformer. Il cartographie tous les CTR des requêtes et indique où nous nous attendions à un plus grand nombre de clics pour l’intention, les impressions et la position de ce mot clé (un peu comme les modèles de Google visent probablement à le faire également). Nous utilisons ce rapport de manière intensive pour identifier les cas où nous méritons plus de trafic, et afin de nous assurer que nous restons dans le top 10 ou que nous progressons encore plus haut.

Quantifier l’importance des Featured Snippets

En parlant d’extraits en vedette, le diagramme ci-dessous montre à quoi cela peut ressembler lorsque vous avez la chance d’être dans le placement par rapport à lorsque vous ne l’avez pas. Le mot clé “réinitialiser l’iphone” du blog technique d’un client avait un CTR de 20 % avec l’extrait en vedette, tandis que sans l’extrait en vedette, il était à un triste 3 %. Gagner un extrait de code pertinent peut changer la donne en raison de l’impact majeur qu’il peut avoir sur votre trafic entrant.

Les extraits de code peuvent parfois avoir une mauvaise réputation, en raison du risque qu’ils génèrent un CTR inférieur à un résultat standard, en particulier lorsqu’ils sont déclenchés pour des requêtes avec une intention d’information plus élevée. Essayez de vous rappeler que les Featured Snippets peuvent afficher votre marque de manière plus visible et peuvent être un excellent signe de confiance pour le chercheur moyen. Même si les utilisateurs étaient satisfaits sur le SERP, le Featured Snippet peut donc fournir des avantages secondaires intéressants tels qu’une meilleure notoriété de la marque et des conversions potentiellement plus élevées via ce facteur de confiance.

Vous souhaitez trouver des opportunités rapides d’extraits en vedette pour lesquelles vous n’avez qu’à réutiliser le contenu existant ? Filtrez vos requêtes GSC à l’aide de modificateurs de questions et de comparaisons pour trouver les mots-clés dignes d’un extrait en vedette que vous pouvez sortir et voler rapidement.

Vous faites partie des 10 meilleurs matériaux – et maintenant?

Un autre de nos mots clés, “Architecture Web”, est un excellent exemple de la raison pour laquelle il est si crucial de continuer à découvrir de nouveaux sujets ainsi que du contenu sous-performant. Nous avons constaté que ce terme spécifique avait du mal il y a un certain temps lors de la recherche de sujets en cours et avons décidé d’appliquer des améliorations pour pousser son classement dans le top 10. Vous pouvez voir les cas révélateurs de Google déterminer le but, la qualité et la pertinence de ce nouveau document renouvelé pendant qu’il grimpe jusqu’à la première page.

Nous avons bien réussi chacun de nos tests. Par exemple, aux positions 10-8, nous avons réussi à obtenir un CTR de 5,7 %. ce qui est bien pour un tel endroit.

Après avoir réussi ce test, nous avons été promus aux positions 4 à 7, où nous avons atteint un CTR réussi de 13 %. Quelques semaines plus tard, nous avons atteint une position moyenne de 3,2 avec un CTR savoureux de 18,7 %, et après un certain temps, nous avons même empoché l’extrait en vedette.

Il n’a fallu que trois mois pour identifier l’opportunité de gravir les échelons et d’obtenir l’extrait en vedette.

Bien sûr, il ne s’agit pas seulement de CTR, il s’agit du long clic : la principale mesure de Google qui indique qu’un site fournit le meilleur résultat possible pour ses utilisateurs de recherche. Combien y a-t-il de clics longs par rapport aux clics moyens, aux clics courts, et à quelle fréquence êtes-vous le dernier clic pour démontrer que l’intention de recherche est satisfaite ? Nous avons vérifié dans Google Analytics et sur 30 000 impressions, les gens passent en moyenne cinq minutes sur cette page, c’est donc un excellent exemple d’un long clic positif.

Optimisez les réponses, pas seulement les pages

Il ne s’agit pas de pages, mais d’éléments d’information individuels et de leurs réponses correspondantes qui visent à satisfaire les requêtes.

Dans le diagramme suivant, vous pouvez réellement voir Google ajuster les mots-clés pour lesquels des pages spécifiques sont classées. Cette URL se classe pour un énorme 1 548 mots-clés, mais en tirer quelques-uns des plus importants pour une analyse individuelle détaillée nous aide à mieux suivre la prise de décision de Google.

Lorsque vous comparez ces deux mots-clés, vous pouvez voir que Google a promu le plus performant sur la première page, puis a poussé le plus faible vers le bas. La forte différence de CTR a été causée par le fait que l’extrait n’était vraiment orienté que vers une partie de ses mots-clés de classement, ce qui a conduit Google à ajuster le classement. Il ne s’agit pas toujours d’un extrait de code qui est mauvais, mais d’autres extraits de code qui sont meilleurs et de savoir si la requête mériterait une meilleure information à la place de l’extrait de code.

N’oubliez pas que la qualité du site Web et le référencement technique sont toujours essentiels

Une chose que nous aimons toujours souligner est que vous ne devriez pas toujours juger vos données trop rapidement, car il pourrait y avoir des erreurs techniques sous-jacentes qui vous découragent (telles que des migrations bâclées, des signaux de classement mixtes, des actifs bloqués, etc.).

Le cas ci-dessous illustre parfaitement pourquoi il est tellement préférable d’analyser ces données avec un outil comme Ryte, car avec GSC, vous ne verrez qu’une petite partie de ce qui se passe, et avec une vue de très haut niveau. Vous voulez être en mesure de comparer les pages individuelles qui se classent pour votre mot-clé afin de révéler ce qui est réellement à l’origine du problème.

Vous êtes probablement assez choqué par cette baisse spectaculaire, car avant la baisse, il s’agissait d’un mot-clé très performant avec un excellent CTR et un long règne en première position.

Ce mot-clé était en première position avec un CTR de 90%, mais le domaine a ensuite ajouté une directive noindex à la page (facepalm). Ainsi, Google a remplacé cette URL de classement numéro un par son sous-domaine, qui se classait déjà numéro deux. Cependant, la page d’accueil du sous-domaine n’était pas l’emplacement idéal pour la requête, car les chercheurs ne pouvaient pas trouver les informations correctes tout de suite.

Mais cela s’est encore aggravé, car ils ont ensuite décidé de rediriger cette page d’accueil de sous-domaine vers la page d’accueil du domaine de niveau supérieur. Google a donc été obligé de classer initialement une page générique qui ne contenait clairement pas les informations correctes pour répondre à cette requête spécifique. Comme vous pouvez le voir, ils sont alors complètement tombés de cette première position, car cela n’était pas pertinent, et Google n’a pas pu récupérer la bonne page pour le travail.

Quelque chose de similaire s’est produit dans cet exemple suivant. Le résultat en première position pour un terme très juteux avec un CTR fantastique a soudainement renvoyé un 404, alors Google a commencé à classer une page différente de ce même domaine à la place, qui était associée à un sujet légèrement similaire mais inexact. Là encore, ce n’était pas la bonne solution pour la requête, de sorte que les performances globales ont diminué.

C’est pourquoi il est si important de regarder non seulement les données globales, mais de creuser plus profondément – surtout s’il y a plusieurs pages classées pour un mot-clé – afin que vous puissiez voir exactement ce qui se passe.

Vous avez des spams ?

Le dernier point n’est pas exactement un modèle à considérer, mais plutôt une sage leçon pour résumer tout ce que j’ai exploré dans cet article.

À grande échelle, Google teste les pages dans les 10 premiers résultats afin de trouver le meilleur emplacement en fonction de ces performances. Dans cet esprit, pourquoi ne pouvons-nous pas demander aux gens d’aller sur les SERP, de cliquer sur nos résultats et de récolter les savoureux avantages de cette position améliorée ? Ou mieux encore, pourquoi n’automatisons-nous pas cela en permanence pour toutes nos 10 requêtes les plus testées ?

Bien sûr, cette approche est fortement spammée, contraire aux directives et contre laquelle Google peut facilement se protéger. Vous n’avez pas non plus à tester cela, car Marcus (étant le SEO curieux qu’il est !) l’a déjà fait.

L’un de ses propres domaines sur les offres d’emploi se classe pour le mot clé “annonces d’emploi”, et comme vous pouvez l’imaginer, il s’agit d’un terme très compétitif qui nécessite beaucoup d’efforts pour marquer. Il se classait à la position 6,6 et avait un CTR décent, mais il voulait l’optimiser encore plus et faire grimper ces SERP à la première position.

Il a augmenté artificiellement son CTR en utilisant des méthodes intelligentes qui ont fini par gagner un CTR “très crédible” de 36% en position neuf. Bientôt en position 10, il avait un CTR de 56,6%, à quel point Google a commencé à avoir vent de la manipulation du spam et l’a jeté dans les SERP. Leçon apprise.

Bien sûr, il s’agissait d’une expérience pour comprendre à quel moment Google détecterait un comportement de spam. Je n’encouragerais pas la mise en œuvre de telles tactiques à des fins personnelles, car il est dans l’intérêt de la santé et du statut de votre site Web de se concentrer sur le qualité de vos clics. Même si ce test fonctionnait bien et que les classements s’amélioraient, au fil du temps, vos visiteurs pourraient ne pas résonner avec votre contenu, et Google pourrait se rappeler que cette position inférieure était initialement en place pour une raison. C’est un cycle continu.

Je vous encourage à atteindre vos résultats organiquement. Tirez parti de la puissance de l’optimisation des extraits de code parallèlement aux améliorations continues du domaine et du contenu pour non seulement augmenter la quantité et la qualité de vos clics, mais aussi les expériences mêmes sur votre site Web qui ont un impact sur votre référencement à long terme et la croissance de votre entreprise.

Conclusion

Pour résumer, n’oubliez pas que les données de performances de recherche de GSC vous donnent le meilleur aperçu des performances réelles de votre site Web. Les trackers de classement sont idéaux pour la recherche de concurrents et les instantanés SERP, mais les données de position ne sont qu’un classement absolu à partir d’une variable définie comme l’emplacement et l’appareil. Utilisez vos propres données GSC pour les analyses de modèles intrinsèques, les diagnostics et la découverte de la croissance.

Mais de grandes données s’accompagnent de grandes responsabilités. Assurez-vous de trouver et de comprendre les modèles dont vous devez être conscient, tels que les 10 meilleurs tests difficiles, les extraits de code sous-performants, les défauts techniques et tout ce qui vous prive du succès pour lequel vous travaillez si dur.


Prêt pour plus?

Vous découvrirez encore plus de bonté SEO d’Izzi et de nos autres haut-parleurs MozCon dans le pack vidéo MozCon 2020. Au prix bas spécial de cette année de 129 $, il s’agit d’un contenu inestimable auquel vous pouvez accéder encore et encore tout au long de l’année pour inspirer et déclencher votre stratégie de référencement :

  • 21 vidéos complètes de certains des esprits les plus brillants du marketing numérique
  • Téléchargements instantanés et streaming sur votre ordinateur, tablette ou appareil mobile
  • Diapositives téléchargeables pour les présentations

Obtenir mon pack vidéo MozCon 2020

(Article traduit de moz.com)
Quitter la version mobile