Référencement technique

Construire un processus SEO technique

L’un des plus grands défis auxquels sont confrontés nombre de mes clients est de mettre en place les bons processus de référencement, de sorte que tout problème soit rapidement pris en compte avant qu’il n’entraîne de plus gros problèmes. Vous trouverez ci-dessous trois éléments à prendre en compte lorsque vous essayez de créer un processus plus rationalisé pour vous assurer que la base technique du site est solide. Bien qu’aucun ne soit considéré comme un gain “rapide” ou nécessairement facile et puisse initialement prendre beaucoup de temps, en fin de compte, à long terme, il contribuera à rendre la surveillance du référencement sur votre site plus efficace. Cela signifie moins de temps passé à identifier et à résoudre les problèmes du site et plus de temps à se concentrer sur d’autres aspects du référencement, comme la création de liens, le développement d’une stratégie de contenu, etc. Au fil du temps, l’impact que cela aura sur votre site peut entraîner des récompenses élevées.

1) Annotations techniques dans Google Analytics

Actuellement, beaucoup de mes clients avec des comptes Google Analytics n’incluent aucune annotation dans Google Analytics, annotent uniquement leurs e-mails, PPC, campagnes sociales ou l’utilisent pour suivre les modifications de l’algorithme du moteur de recherche (comme les mises à jour de Panda). Cependant, la valeur d’annoter toute modification technique apportée au site dans Google Analytics crée un processus interne plus efficace.

Scénario 1: Supposons que vous ayez configuré Google Alerts pour vous alerter des pics et des baisses de trafic. Ensuite, le fait d’avoir des modifications techniques annotées dans Google Analytics vous permet de déterminer plus rapidement et plus facilement la cause de ce pic ou de cette baisse, au lieu d’investir des heures plus tard à essayer de déterminer la cause de ces changements de trafic. De plus, tout problème technique majeur risque d’être mal implémenté (en termes de considérations SEO), simplement parce qu’il y a tellement de problèmes à prendre en compte.

Voici plus d’informations sur la configuration d’une alerte Google.

Scénario 2: Souvent, le référencement n’est pas une priorité technique pour l’équipe de développement, principalement parce qu’il est difficile de mesurer le retour sur investissement de ce qui représente souvent une quantité importante de temps et d’efforts investis. La création d’annotations dans Google Analytics pourrait faciliter ce processus. Par exemple, si un pic de trafic devait se produire et que l’équipe était en quelque sorte en mesure d’attribuer cela à une implémentation technique sur le site, l’équipe technique pourrait être correctement reconnue comme étant la cause. de ce changement.

2) Sitemaps – Google/Bing Webmaster Tools

Les référenceurs doivent créer un processus interne où Google Webmaster Tools est vérifié au moins une fois par mois pour s’assurer qu’il n’y a pas de problèmes majeurs avec les sitemaps ou avec des bots qui explorent le site. Les plans de site ne sont utiles que s’ils sont tenus à jour et bien entretenus.

Pourquoi est-ce important? Duane Forrester de Bing a déclaré que “Votre sitemap doit être propre. Nous avons une allocation de 1 % pour la saleté dans un sitemap.” Sa définition de la saleté inclut les erreurs de code d’état 404 ou 500 et les redirections. Il poursuit en disant “Si nous voyons plus d’un niveau de saleté de 1 %, nous commençons à perdre confiance dans le sitemap.”

Les meilleures pratiques incluent la soumission régulière d’un nouveau sitemap, en fonction de la fréquence à laquelle de nouveaux contenus sont générés sur le site. Un site de publication peut avoir besoin de mettre à jour toutes les quelques heures, un site de commerce électronique toutes les semaines et un site relativement statique tous les mois.

Les sitemaps doivent être vérifiés au moins une fois par mois dans les outils pour les webmasters afin de s’assurer qu’il n’y a aucun problème avec le sitemap.

Ceux-ci inclus:

  • Vérification des messages d’erreur

  • Vérification du nombre de pages soumises versus indexées

  • Recherche de logiciels malveillants (et résolvez-les immédiatement !)

  • Vérification des erreurs d’exploration (comme les problèmes 4xx et 5xx)

Utiliser la grenouille hurlante

Si vous avez un compte Screaming Frog, vous pouvez également l’utiliser pour vérifier les erreurs de Google Webmaster Tools, en particulier parce que Google Webmaster Tools ne met pas toujours à jour leurs erreurs. Ainsi, vous ne voulez pas rechercher des 404 qui ont déjà été corrigés. Vous pouvez également l’utiliser pour vérifier si votre sitemap contient des erreurs. Pour ce faire, téléchargez simplement le sitemap XML dans Screaming Frog et explorez-le. Craig Bradford de Distliled a écrit un article de blog fantastique sur la façon d’utiliser Screaming Frog pour accomplir ces tâches et plus encore.

Si Google Webmaster Tools n’est pas vérifié périodiquement, le nombre d’erreurs peut sembler écrasant. Joe Robison a écrit un fantastique post SEOmoz sur la correction d’un nombre écrasant d’erreurs dans Google Webmaster Tools.

3) Création de scripts automatisés

404 pages renvoyant le statut 200 codes:

Barry Schwartz a écrit un article de blog sur la façon dont les pages 404 ne doivent pas renvoyer les codes de statut 200. Le raisonnement étant que cela pourrait être déroutant pour les araignées car elles voient une page qui existe techniquement sans contenu. Cela peut affecter les classements au fil du temps car cela crée un contenu en double massif car les bots parcourent le même contenu encore et encore sur plusieurs URL.

Il suggère également de créer des scripts automatisés pour vérifier ce type de problème.

Cependant, pour vous aider initialement à déterminer l’étendue de ce problème sur votre site et fournir une estimation du nombre de pages 404 qui renvoient des codes de statut 200, branchez une requête de recherche de site dans Google. Voir exemple ci-dessous :

site:example.com/ “page introuvable”

Si la requête renvoie des résultats, vous savez que votre site renvoie des codes de statut 200 pour 404 pages et que ce problème doit être résolu.

Carte de pointage SEO :

J’ai déjà parlé de la création d’une carte de pointage SEO. J’ai aussi récemment recommandé une autre version de ceci à un autre client qui avait des centaines de milliers d’URL. Dans ce cas précis, ils avaient du mal à s’assurer que seul le contenu de haute qualité et non dupliqué serait indexé. En tant que client de commerce électronique, le site comportait également des tonnes de produits très similaires (résultant en des descriptions de produits et un contenu identiques sur le site).

J’ai suggéré de créer une feuille de score interne qui serait automatiquement réexécutée tous les mois pour s’assurer que toutes les pages actuellement indexées sont toujours considérées comme de haute qualité, tout en offrant également la possibilité aux pages qui étaient autrefois jugées de mauvaise qualité d’être révisées régulièrement. Une fois que ces pages de mauvaise qualité sont devenues de haute qualité, elles seront automatiquement indexées.

Ce processus pourrait être utilisé pour générer les sitemaps – mais l’objectif est de pérenniser le site contre les futurs changements algorithmiques des moteurs de recherche tout en améliorant l’autorité de domaine globale du site.

Il y a des mises en garde qui doivent être prises en compte lors de la création d’une feuille de score SEO – nous voulons faire attention aux pages non indexées, d’autant plus qu’au fil du temps, cela pourrait entraîner une indexation de moins en moins importante du site. Une fois le script initial écrit, vérifiez les résultats et voyez s’il s’agit bien de pages que vous ne voulez pas indexer. Sinon, le script devra peut-être être réécrit.

L’objectif ultime est de s’assurer que seules les pages de qualité sont indexées, tout en gardant un œil sur le nombre de pages supplémentaires du site qui nécessitent un contenu unique. Ce type de connaissances peut s’avérer utile lors de la création de la stratégie de linkbuilding/contenu du site.

Conclusion

L’objectif global est de construire un processus rationalisé d’audit technique d’un site qui peut être décrit et donc communiqué en interne. La création d’un processus plus efficace signifie plus de temps investi dans d’autres éléments importants – la compilation d’un contenu de qualité, la création d’une communauté en ligne et les médias sociaux pour n’en nommer que quelques-uns.

(Article traduit de moz.com)

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Index