Utiliser Twitter comme sitemap

Introduction

Pratiquement depuis le début de Twitter Les experts en référencement ont spéculé sur la manière dont Twitter peut les aider dans leurs projets de référencement. L’utilisation la plus évidente – la création de liens directs – a été immédiatement rejetée en raison des balises nofollow qui ont été ajoutées à tous les liens externes. Il ne restait plus qu’à l’utiliser pour la création de liens indirects en créant des réseaux sociaux et du appâtage de liens.

Cependant, il y a eu récemment des spéculations selon lesquelles Google pourrait traiter le nofollow de différentes manières – selon le site Web. Ceci, combiné au fait que Google a maintenant accès à la base de données de Twitter, nous a amenés à tester si les URL sur Twitter sont vraiment ignorées par Google, comme cela peut officiellement sembler.

Recherche et méthodologie

Nous avons mené une recherche basée sur un site Web polonais d’annonces classées liées aux animaux de compagnie http://www.morusek.pl/ avec environ 50 annonces publiées chaque jour et son profil sur Twitter : http://twitter.com/morusek .

Le profil est mis à jour toutes les 30 minutes avec des publications automatiques contenant le titre de l’annonce, une partie de la description et une URL raccourcie bit.ly. Pour les besoins de la recherche, nous avons modifié les URL publiées, afin qu’elles contiennent ?utm_source=twitter. De cette façon, nous pourrions suivre les visites de Googlebot sur les URL des pages de détails des annonces avec et sans ce suffixe. Si Googlebot a visité une URL contenant utm_source=twitter, cela signifie qu’il l’a trouvée via Twitter, car ces URL n’étaient affichées nulle part ailleurs sur ou en dehors du site Web.

Résultats

Après quelques jours, nous avions des données d’environ 190 annonces, à savoir la date et l’heure de leur soumission, la première visite de Googlebot à partir de liens publiés sur le site (sans utm_source…) et la première visite de Googlebot à partir de liens publiés sur Twitter.com (avec utm_source …).

La première et la plus importante conclusion de la recherche est qu’il y a eu des visites à partir de liens Twitter. En fait, presque toutes les annonces ont eu au moins une visite pour l’URL contenant utm_source=twitter. Cela signifie que Google prend en compte les URL placées sur Twittermalgré le fait qu’ils soient équipés de nofollow, et envoie Googlebot pour récupérer leur contenu.

Ce n’est pas tout! Après analyse des données, il est apparu que les visites via Twitter étaient d’environ 186 minutes plus vite que ceux via le site Web.

Les résultats peuvent être mieux visualisés par les graphiques suivants. Veuillez noter qu’ils ont été recadrés pour ne montrer qu’une partie des données afin qu’ils soient plus faciles à suivre.

Une autre conclusion, comme nous pouvons le voir sur les graphiques ci-dessus, est que les visites de Googlebot via les liens Twitter sont plus régulier que ceux des liens internes, où les retards peuvent atteindre 14 heures.

De plus, le temps moyen entre la soumission du lien vers Twitter et la première visite de Googlebot est en fait beaucoup plus court que les 57 minutes mentionnées ci-dessus. Notez que les valeurs montrent la différence entre la soumission de l’annonce et la première visite Googlebot, tandis que le temps de soumission de l’annonce n’est pas égal à la publication du lien sur Twitter. Voir l’exemple ci-dessous :

Vous pouvez voir l’heure de soumission et la première visite de Googlebot à partir des liens Twitter pour 4 annonces sélectionnées. L’application utilisée sur le profil Twitter de Morusek permet le téléchargement d’éléments toutes les 30 minutes. Nous pouvons voir que l’annonce la plus ancienne a en fait été publiée 16 minutes plus tard qu’elle aurait pu l’être. Si nous excluons ces extrêmes et ne prenons en compte que les annonces les plus récentes à chaque téléchargement groupé, nous avons le temps moyen entre la publication de l’annonce et la première visite de Googlebot via les liens Twitter réduit à 42 minutes.

Visites de Googlebot vs indexation de page

Nous avons déjà prouvé que les liens publiés sur Twitter sont pris en compte par Google, et provoquent des visites de Googlebot. Mais nous ne savons pas encore si de tels liens entraînent une indexation des pages. Il peut arriver que Google visite ces pages uniquement à des fins de recherche en temps réel, pour évaluer la qualité des profils Twitter.

Eh bien, il semble que de tels liens causent vraiment l’indexation des pages. Nous ne l’avons pas testé à plus grande échelle, mais les deux annonces qui n’ont pas été trouvées par Googlebot via des liens internes, et qui n’ont signalé que des visites Googlebot liées à Twitter, étaient en fait présentes sur les SERP de Google après quelques heures.

Problèmes

Tout a l’air génial jusqu’à présent. On sait que Twitter augmente la vitesse de visite des Googlebots pour les nouvelles pages, et améliore (ou provoque) leur indexation. Il y a cependant un problème. Comme vous l’avez probablement remarqué sur le graphique ci-dessus (celui des visites via Twitter), tous les points verts ne sont pas accompagnés d’un point bleu. Cela signifie que tous les liens publiés sur Twitter n’ont pas été remarqués et n’ont pas provoqué de visites de Googlebot. Sur 189 annonces évaluées, 50 n’ont pas du tout été visités via des liens Twitter (26%).

Cela peut être dû à la façon dont les publicités sont téléchargées sur Twitter, c’est-à-dire toutes les demi-heures, jusqu’à 5 à la fois. Certaines peuvent ne pas avoir été publiées du tout (par exemple s’il y a eu plus de 5 annonces soumises entre deux mises en ligne). Ou cela peut simplement être dû au manque de confiance de Google envers l’ensemble de Twitter ou le profil de Morusek uniquement.

conclusion

Néanmoins, il semble que Twitter puisse être un bon moyen d’augmenter l’indexation des sites Web, en particulier pour les grands sites Web, avec de nombreux nouveaux contenus apparaissant chaque jour. Grâce à des profils comme celui de Morusek, nous pouvons augmenter la vitesse à laquelle les nouvelles pages sont trouvées par Google et permettre l’indexation de celles qui ne peuvent pas être trouvées via des liens internes (par exemple à cause d’un changement de contenu trop rapide).

Bien sûr, la fréquence et l’efficacité des visites de Googlebot dépendent probablement de la popularité du profil et du taux de fréquence de mise à jour. Je suppose également que Google peut prendre en compte d’autres facteurs, tels que la qualité du contenu mis à jour et la qualité ou l’unicité des pages liées. Nous pouvons même imaginer que Google utilise des algorithmes de mesure de la qualité similaires à ceux utilisés pour les sitemaps XML.

Une autre conclusion (et un sujet pour de futures discussions), est que des profils comme celui de Morusek peuvent être traités par certains comme du spam puisque l’objectif initial de Twitter était très différent de celui-ci. Il peut donc arriver que soit Twitter bloque à terme ces “sitemaps”, soit que Google ne les tienne plus en compte.

Enfin, si Google suit les liens Twitter, alors peut-être que d’autres liens nofollow sont également pris en compte. Bien sûr, pas tous, mais je parie que Wikipédia, Facebook et peut-être d’autres sites Web de médias sociaux sont également traités de la même manière.



(Article traduit de moz.com)

Quitter la version mobile