Résultats surprenants des tests SEO A/B

Vous pouvez apporter tous les ajustements et modifications du monde, mais comment savez-vous que c’est le meilleur choix pour le site sur lequel vous travaillez ? Sans données pour étayer vos hypothèses, c’est difficile à dire. Dans l’édition de cette semaine de Whiteboard Friday, Will Critchlow explique un peu ce qu’impliquent les tests A/B pour le référencement et décrit certains des résultats surprenants qu’il a vus et qui prouvent que vous ne pouvez pas toujours faire confiance à votre instinct dans notre industrie.

Cliquez sur l’image du tableau blanc ci-dessus pour ouvrir une version haute résolution dans un nouvel onglet !

Transcription vidéo

Salut tout le monde. Bienvenue à un autre vendredi du tableau blanc britannique. Je m’appelle Will Critchlow. Je suis le fondateur et PDG de Distilled. Chez Distilled, l’une des choses sur lesquelles nous avons travaillé récemment est la création d’une plateforme de test SEO A/B. C’est ce qu’on appelle l’ODN, le réseau de livraison d’optimisation. Nous sommes maintenant déployés sur un tas de gros sites, et nous exécutons ces tests SEO A/B depuis un petit moment. Je veux vous parler de certains des résultats surprenants que nous avons vus.

Qu’est-ce qu’un test SEO A/B ?

Nous allons créer un lien vers certaines ressources qui vous en montreront plus sur ce qu’est le test SEO A/B. Mais très rapidement, le principe général est que vous prenez une section de site, donc un tas de pages qui ont une structure, une mise en page et un modèle similaires et ainsi de suite, et vous divisez ces pages en contrôle et variante, donc un groupe de pages A et un groupe de pages B.

Ensuite, vous apportez le changement dont vous pensez qu’il fera une différence uniquement pour l’un de ces groupes de pages, et vous laissez l’autre ensemble inchangé. Ensuite, à l’aide de vos données d’analyse, vous établissez une prévision de ce qui serait arrivé aux variantes de page si vous n’y aviez apporté aucune modification, et vous comparez ce qui se passe réellement avec la prévision. À partir de cela, vous obtenez des intervalles de confiance statistiques, et vous pouvez dire, oui, c’est une amélioration, ou il n’y a pas eu de différence, ou non, cela a nui aux performances de votre site.

Ce sont des données que nous n’avions jamais vraiment eues en SEO auparavant, car c’est très différent de mener une expérience contrôlée dans une sorte d’environnement de laboratoire ou sur un domaine de test. C’est dans la nature, sur des sites Web réels, réels et en direct. Passons donc au matériel. Le premier résultat surprenant dont je veux parler est basé sur certains des conseils les plus élémentaires que vous ayez jamais vus.

Résultat n°1 : le ciblage de mots-clés à volume plus élevé peut en fait entraîner une baisse du trafic

Je suis monté sur scène et j’ai donné ce conseil. J’ai recommandé ce matériel à des clients. Probablement que vous aussi. Vous savez ce processus où vous effectuez une recherche de mots clés et vous constatez qu’il existe une façon particulière de rechercher ce que vous proposez qui a plus de volume de recherche que la façon dont vous en parlez sur votre site Web en ce moment, donc plus élevé volume de recherche pour une formulation particulière ?

Vous formulez la recommandation : “Parlons de ce contenu sur notre site Web de la manière dont les internautes le recherchent. Mettons ce type de formulation dans notre titre et ailleurs sur nos pages.” J’ai fait ces recommandations. Vous avez probablement fait ces recommandations. Ils ne fonctionnent pas toujours. Nous avons vu à quelques reprises maintenant tester ce type de processus et voir ce qui est en fait des baisses spectaculaires.

Nous avons constaté des baisses allant jusqu’à plus de 20 % du trafic organique après la mise à jour des méta-informations dans les titres, etc., pour cibler la variante la plus recherchée. Différentes raisons à cela. Peut-être que vous vous retrouvez avec un taux de clics plus faible à partir des résultats de recherche. Alors peut-être que vous vous classez là où vous le faisiez auparavant, mais que vous obtenez un taux de clics inférieur. Peut-être que vous améliorez votre classement pour le terme cible de volume plus élevé et que vous montez un peu, mais vous descendez pour l’autre et le nouveau est plus compétitif.

Alors oui, vous avez un peu progressé, mais vous êtes toujours hors course, et c’est donc une perte nette. Ou peut-être finissez-vous par vous classer pour moins de variations de phrases clés sur ces pages. Quoi qu’il en soit, vous ne pouvez pas être certain que le simple fait de mettre la formulation de mots clés à volume plus élevé sur vos pages fonctionnera mieux. C’est donc le premier résultat surprenant. Le résultat surprenant numéro deux n’est peut-être pas si surprenant, mais assez important je pense.

Résultat n° 2 : 30 à 40 % des recommandations d’audit technique courantes ne font aucune différence

C’est donc que nous voyons jusqu’à 30% ou 40% des recommandations courantes dans un audit technique classique ne font aucune différence. Vous faites tout ce travail d’audit du site Web. Vous suivez les meilleures pratiques SEO. Vous trouvez quelque chose qui, en théorie, améliore le site Web. Vous allez faire le changement. Vous le testez.

Rien, flatlines. Vous obtenez les mêmes performances que les prévisions, comme si vous n’aviez apporté aucune modification. C’est un gros problème, car faire ce genre de recommandations nuit à la confiance des ingénieurs et des équipes produit. Vous leur demandez constamment de faire des choses. Ils ont l’impression que c’est inutile. Ils font tout ça, et il n’y a aucune différence. C’est ce qui brûle trop souvent l’autorité des équipes d’ingénierie.

C’est l’une des raisons pour lesquelles nous avons construit la plate-forme, c’est que nous pouvons ensuite prendre nos 20 recommandations et hypothèses, les tester toutes, trouver les 5 ou 6 qui font bouger l’aiguille, aller seulement à l’équipe d’ingénierie pour construire celles-là, et ça construit tellement de confiance et de relations au fil du temps, et ils se mettent au travail sur des choses qui font bouger l’aiguille du côté du produit.

Donc, le gros problème, c’est vraiment d’être un peu sceptique à propos de certains de ces trucs. Les meilleures pratiques, à la limite, font probablement la différence. Si tout le reste est égal et que vous apportez ce petit ajustement à l’attribut alt ou à une image particulière quelque part au fond de la page, si tout le reste avait été égal, cela aurait peut-être fait la différence.

Mais cela va-t-il vous faire progresser dans un environnement de classement compétitif ? C’est pour cela qu’il faut être sceptique.

Résultat #3 : Beaucoup de leçons ne généralisent pas

Le résultat numéro trois est donc surprenant : combien de leçons ne généralisent pas ? Nous avons vu cela de manière générale dans différentes sections du même site Web, même dans différentes industries. Cela concerne en partie la dynamique concurrentielle de l’industrie.

Une partie de cela est probablement due à la complexité de l’algorithme de classement de nos jours. Mais on le voit en particulier avec des choses comme ça. Qui a vu du texte SEO sur une page de catégorie ? Ce genre d’entre vous a tous vos produits, et puis quelqu’un dit : « Vous savez quoi ? Nous avons besoin de 200 ou 250 mots qui mentionnent notre phrase clé plusieurs fois en bas de la page. Parfois, utilement, vos ingénieurs mettront même cela dans une div SEO-texte pour vous.

Nous voyons donc cela assez souvent et nous avons testé de le supprimer. Nous avons dit : “Vous savez quoi ? Aucun utilisateur ne regarde cela. Nous savons que le fait de surcharger le mot-clé sur la page peut être un signal de classement négatif. Je me demande si nous ferons mieux si nous nous contentons de couper cette div.” Nous l’enlevons donc, et la première fois que nous l’avons fait, plus 6% de résultat. C’était une bonne chose.

Les pages sont meilleures sans elle. Ils sont maintenant mieux classés. Nous obtenons de meilleures performances. Nous disons donc : “Vous savez quoi ? Nous avons appris cette leçon. Vous devriez supprimer ce texte de très mauvaise qualité du bas de vos pages de catégorie.” Mais ensuite on l’a testé sur un autre site, et on voit qu’il y a une baisse, une petite certes, mais ça aidait sur ces pages en particulier.

Je pense donc que cela nous dit simplement que nous devons tester ces recommandations à chaque fois. Nous devons essayer d’intégrer les tests dans nos méthodologies de base, et je pense que cette tendance ne fera qu’augmenter et se poursuivre, car plus les algorithmes de classement deviennent complexes, plus l’apprentissage automatique y est intégré et ce n’est pas aussi déterministe qu’il c’était le cas, et plus les marchés deviennent compétitifs, donc plus l’écart entre vous et vos concurrents est étroit, moins tout cela est stable, moins il y aura de différences et plus il y aura d’opportunités pour quelque chose qui fonctionne dans un endroit pour être nul ou négatif dans un autre.

J’espère donc que je vous ai inspiré à découvrir quelques tests SEO A/B. Nous allons établir un lien vers certaines des ressources qui décrivent comment vous le faites, comment vous pouvez le faire vous-même et comment vous pouvez construire un programme autour de cela ainsi que d’autres de nos études de cas et leçons que nous avons apprises . Mais j’espère que vous avez apprécié ce voyage sur les résultats surprenants des tests SEO A/B.

Ressources:

  • SEO Split-Testing : comment tester les changements A/B pour Google
  • Faites-le vous-même outil de test de fractionnement SEO avec impact causal
  • Études de cas:
    • SmokyMountains.com
    • iCanvas
    • ConcertHotels.com

Transcription vidéo par Speechpad.com

(Article traduit de moz.com)
Quitter la version mobile