Performances du site

Afin de m’assurer que mon site principal fonctionne dans les nouveaux paramètres de ce que Google considère comme une bonne “performance du site” (qui fait maintenant partie de l’algo google), j’ai effectué quelques tests. Je comprends qu’il ne s’agit que d’un facteur de classement sur 200, et d’un très nouveau, mais cela pourrait s’avérer très important pour moi et mon travail, alors je voulais comprendre un peu mieux les choses et obtenir le la meilleure “performance” possible sans sacrifier la conception du site.

_______________

Vous pouvez voir Matt Cutts discuter des performances du site sur cette vidéo (aux deux tiers) lors d’un créneau de conférencier invité qu’il a fait en Belgique. Il y dit que toutes choses étant égales par ailleurs, Google classera un site de chargement plus rapide au-dessus d’un site de chargement plus lent dans les SERP …

Qu’est-ce que les « performances du site » ? De Google: “Le temps de chargement de la page est le temps total à partir du moment où l’utilisateur clique sur un lien vers votre page jusqu’au moment où la page entière est chargée et affichée dans un navigateur. Il est collecté directement auprès des utilisateurs qui ont installé la barre d’outils Google et ont activé la fonctionnalité optionnelle PageRank ». [sic. I am aware of trusting this data set implicitly and of what is hidden from the data set].

_______________

J’ai utilisé un site de test plus de 4 mois pour vérifier si la vitesse moyenne des sites a affecté la relation d’un site avec Google. Le site comptait environ 100 pages de contenu complet début avril, et j’ai régulièrement ajouté des pages de contenu uniques au cours des 4 mois, jusqu’à 200 pages. Plutôt que de simplement tester les réactions des visiteurs aux différents temps de chargement, taux de rebond, etc. (ce que j’ai également fait), je parle ici spécifiquement de la relation des sites avec Google. Maintenant, voici la mise en garde, il ne s’agit que d’un seul site, utilisant une variable très fragile que google place sous sa zone “laboratoires” dans les outils pour les webmasters, alors lisez ce qui suit avec la prudence et l’esprit avec lesquels il est écrit. Appelez cela un ensemble d’observations intéressantes, rien de plus.

Le site de test regorge de contenus uniques et intéressants qui finiraient par être transférés (sous une forme ou une autre, sans duplication) sur mon site principal, et je n’ai donc pas perdu le temps de Google à l’explorer ou à l’indexer, etc. Les données que j’ai recueillies m’ont permis d’améliorer considérablement la conception de mon site principal et de maintenir le temps de chargement moyen des pages de ce site à moins de 2,0 secondes (il est en fait de 1,8 seconde) pour mon public cible. Donc, les données que j’ai extraites du test étaient d’une valeur incroyable pour moi, et un exemple pour moi d’apprendre à faire plus de tests.

Pour faire le test, j’ai augmenté les temps de chargement moyens des pages du site de test au cours des 4 mois à 15 secondes très lentes (moyenne), puis j’ai ramené les temps de chargement à environ 1,7 seconde (moyenne) – pour ce faire, j’ai utilisé Des scripts Java, des plugins, et toutes sortes d’images à haute résolution à chargement lent, etc., etc. que je pourrais vouloir utiliser sur mon site principal – donc pour ralentir les temps de chargement de la page ou les accélérer, j’ai ajouté ou enlevé ces composants. J’étais particulièrement désireux de voir quelle taille et qualité d’images pouvaient être utilisées, et combien je pouvais utiliser sur une page, ainsi que le comportement de certains plugins, etc. qui pourraient être utiles.

J’ai également conservé les points de données pour chacun des jours des 4 mois, Google m’a mis à jour avec mes nouveaux temps de chargement moyens des pages et la vitesse à laquelle les nouvelles pages étaient indexées, quel effet (le cas échéant) cela avait-il sur les SERP et l’expérience utilisateur, etc. j’ai fait une vérification “à double immersion” (faire un test rapide de chute et de montée de chaque côté du pic principal) et j’ai répété tout le test sur une période plus courte. La double vérification et le test de répétition sont vraiment liés à ce que les statistiques de google crawl me disaient, et sont peut-être les points de données les plus intéressants de mon point de vue.

La première chose que j’ai remarquée, et c’est évident dans les autres ensembles de données que j’ai collectés (et quelque chose que vous saviez probablement déjà), c’est que sur une période de 4 mois, et dans l’expérience de double dip, et dans une répétition de l’ensemble du test en juillet , est que Google a exploré beaucoup plus de pages Web, de manière plus approfondie, avec plus de minutie, lorsque le site avait une vitesse de chargement de page rapide (moyenne). Les visites de Googlebot au cours de ces 4 mois sont venues presque en tandem avec le graphique affiché sur la page de performances de mon site google webmasters, il est venu beaucoup plus souvent et a exploré plus en profondeur, lorsque les temps de chargement moyens des pages étaient faibles.

Au moment où le site chargeait les pages à 15 secondes en moyenne, début mai, cela arrivait moins de 10% du temps, comme lorsque les temps de chargement des pages étaient inférieurs à 2 secondes en moyenne en avril et juin. En mai, il y avait de la caféine, etc., mais sur 4 mois, et avec le contrôle à double immersion et le test répété, les résultats étaient toujours les mêmes. Googlebot a en effet réagi aux performances du site (voir un peu plus à ce sujet plus tard).

Théoriquement, à partir de mes données collectées, j’ai commencé à savoir à quelle vitesse l’algo google commençait à punir mon site et où l’algo commençait à le récompenser pour ce facteur de classement. Par punir et récompenser, je veux dire qu’il y avait plus d’exploration, une indexation plus rapide et plus de pages indexées, etc. ou l’inverse. Ce n’est qu’un facteur de classement sur 200 et je me rends compte que le fait d’avoir une autorité de domaine et un excellent contenu, etc. influence également le taux de visite de googlebot et l’indexation des pages … mais le seulement La variable qui a changé dans ce test sur 4 mois était le contenu de conception, c’est-à-dire qu’une image avec une taille de Ko très élevée a été supprimée et remplacée par la même image avec une taille de Ko moyenne ou faible – et cela a été fait pour la majorité des pages (ce qui a pris heures à la fois). De nouvelles pages ont été ajoutées avec régularité, avec le même excellent contenu original écrit par moi – et le public cible, la justification du site Web, etc. n’ont jamais changé. J’ai utilisé les outils Pingdom à cet égard pour m’aider au cours des 4 mois car ils ont également conservé un historique de chaque test que j’ai exécuté avec eux et les résultats de Pingdom m’indiquaient toujours les mêmes temps de chargement de page que google, plus ou moins 10% et le taille de chaque composant sur la page, ce qui a aidé à supprimer et à ajouter des composants.

Noter: J’ai utilisé le mot « pourrait » dans les observations suivantes, car je ne veux pas qu’elles apparaissent comme autre chose que quelque chose d’intéressant à penser. Il est difficile de saisir correctement les problèmes et les questions de vitesse et de performance globales (moyennes) des sites Web en raison de tous les différents niveaux d’infrastructure et de développement à travers le monde ; cependant, un des premiers rapports que j’ai lu (avec lequel je suis d’accord) disait, “Site Performance présente un avantage notable : les données mondiales. Étant donné que les performances du site suivent les “expériences” d’un large éventail d’utilisateurs du monde entier qui utilisent la barre d’outils Google, les données peuvent brosser un portrait plus utile des performances “moyennes”, ce qui les rend probablement utiles à chaque propriétaire de site Web d’une certaine manière ” .

Mon site ne signalerait pas un temps de chargement de 1,8 seconde si la majorité de mes visiteurs ciblés n’utilisaient pas l’infrastructure à large bande. Mais quel que soit le niveau de technologie de la fourniture de services Internet du pays (large bande / accès commuté, etc.), la théorie est que le site Web moyen ajustera la taille globale de chaque page Web en fonction de la zone ciblée. Ce sera évidemment le cas si vous vivez dans le pays que vous ciblez et que vous pouvez voir par vous-même les temps de chargement des pages de votre propre site, en utilisant l’infrastructure de service Internet de ce pays – qui est probablement la majorité de tous les webmasters, qui sont localement ou ciblage national. Et étant donné que Google est celui qui effectue globalement l’ajustement et la moyenne des temps de chargement de la page en secondes pour chaque visite de l’utilisateur, plutôt que de simplement signaler la taille de la page en kilo-octets, l’ensemble de données doit toujours être pertinent car il s’agit uniquement des expériences réelles des visiteurs rapportées retour à Google.

  • Le temps moyen de chargement des pages sur Internet (au milieu de l’année 2010) est de 2,9 secondes. Si vous avez un site qui charge les pages en moyenne plus rapidement ou plus lentement que 2,9 secondes (pour les personnes visitant votre site), alors vous êtes quelque part, plus ou moins, la moyenne. Théoriquement, cette moyenne est à la fois indépendante et spécifique aux emplacements géographiques (provenant de l’endroit où Google obtient son ensemble de données globales, c’est-à-dire “collecté directement auprès des utilisateurs qui ont installé la barre d’outils Google”). Donc, avec 2,9 secondes semblant être la “moyenne” mondiale, vous pouvez voir où vous vous situez en termes de ce que vivent les visiteurs de votre site – êtes-vous plus performant ou moins performant que l’expérience utilisateur attendue en attendant que les pages se chargent ?
  • Si vous avez une vitesse de chargement de page moyenne inférieure à 1,9 seconde (pour les personnes que vous ciblez ou qui visitent votre site), vous êtes dans le pourcentage le plus élevé et l’algo pourrait vous récompenser (dans mes ensembles de données par explorer le site beaucoup plus, indexant les nouvelles pages beaucoup plus rapidement et les conservant dans l’index ; et avec un petit sauter dans les SERP également, plus que quelques points au-dessus de 2 secondes). Google a semblé vraiment aimer mon site de test en dessous de cette barrière de 2 secondes, qui est plus rapide que 70% de tous les sites Internet. Maintenant, que ce soit 70 % de tous les sites ou 70 % des sites ciblant le même public (et donc une particularité de ce site et de ce public cible), je ne voudrais pas le dire. D’autres ensembles de données provenant d’autres sites devraient être collectés, donc je ne préconise rien, je souligne simplement ce que j’ai vu à partir de cet ensemble de données et des tests répétés à l’intérieur de celui-ci. Cependant, c’est un obstacle aux performances que je souhaite maintenant conserver sur mon site principal, et j’ai commencé à voir des résultats très similaires au cours du mois dernier sur ce site également. Donc, à mon humble avis, Google aime que la barrière des 2 secondes soit franchie pour le public cible moyen visitant le site. Noter: L’expérience utilisateur s’est également améliorée, les taux de rebond, la durée du séjour, le nombre de pages consultées, etc. etc. ont tous réagi. très positivement pour briser la barrière des 2 secondes également. Cet exemple de juste un petit saut dans les performances est quelque chose que Matt Cutts dit également que google a découvert (dans le lien vidéo que j’ai donné au début). Pensez-y comme à la pêche à la mouche, lancez l’appât trop loin et le poisson ne mord pas, lancez-le plus près et le poisson le suit, lancez-le au bon endroit et le poisson mord. L’astuce consiste à faire mordre googlebot.
  • Si vous avez une vitesse de chargement moyenne des pages supérieure à 6 secondes, vous êtes dans le pourcentage le plus bas, plus lent que 70 % des sites, et l’algo pourrait commencer à vous punir (dans mes données, en crawlant moins le site, en indexant les nouvelles pages moins rapidement et supprimer des pages de l’index).
  • L’algo google peut considérer votre site comme neutre si vos temps de chargement moyens de page sont compris entre 2,5 secondes et 4,5 secondes (mais seulement si mon ensemble de données est vrai pour le reste d’Internet). Par neutre, je veux dire qu’il n’y avait rien d’exceptionnel ; les taux de crawl et la profondeur de crawl, etc. semblaient être très similaires dans cette plage de performances.
  • En tant que facteur de classement récemment annoncé, il semble qu’ils soient plus indulgents sur les temps de chargement supérieurs (4,5 à 6 secondes), il n’y avait pas une énorme différence entre les taux d’exploration du site lorsque les temps étaient juste en dessous ou au-dessus de 4,5 secondes, mais cela peut changer à mesure qu’ils mettent davantage l’accent sur cela en tant que facteur de classement.
  • Si les pages de votre site prennent en moyenne plus de 10 secondes à se charger (pour les visiteurs venant sur votre site), alors vous pourriez être considérablement puni par l’algo google, j’ai vu le googlebot beaucoup moins souvent(et les pages ont été supprimées de l’index, etc. à un niveau significatif) que d’autres graphiques et les résultats de SERP dans mon ensemble de données ont également tendance.

Comme indiqué précédemment, il semble que googlebot réagisse aux performances du site et à ce qu’il perçoit comme “l’expérience utilisateur”. Lorsque j’examinais les choses sur l’expérience en temps réel de 4 mois, j’ai vu qu’il y avait un délai d’environ 6 jours pour que l’algo google décide de punir ou de récompenser – c’est-à-dire qu’il semble que vous pourriez avoir environ une semaine pour rectifier tout problème avant que l’algo google ne considère cela comme une situation permanente et pas un problème de serveur. La bonne nouvelle est que si vous améliorez les temps de chargement des pages en une semaine, vous commencerez à voir les récompenses. Cela ne s’est pas produit une seule fois, mais plusieurs fois au cours des 4 mois, en suivant toujours les tendances du graphique, avec un décalage de 6 jours. Il semble que Google ne tarde pas à réagir aux bonnes et aux mauvaises choses, ce qui n’est qu’une bonne chose dans mes livres.

J’espère que cela aide en partie, ou du moins ne confond pas …

PS

Je suis également conscient que l’emplacement du serveur a un faible impact sur les temps de chargement du spectateur dans son navigateur – c’est-à-dire qu’un serveur hébergeant le site Web basé au Royaume-Uni charge les pages plus rapidement pour les visiteurs britanniques que pour les visiteurs des États-Unis (en raison du petit retard dans le transport des données sur la distance). Je le sais pertinemment parce que j’ai fait un test précédent (dans les quelques mois qui ont précédé ce test) et sur la base de ces résultats, j’ai déplacé mon serveur au Royaume-Uni où je suis basé et où se trouve le principal marché cible, du États-Unis, et les temps ont changé en conséquence (avec suffisamment d’importance pour que cela en vaille vraiment la peine). Si vous ciblez le monde entier, ne vous inquiétez pas, mais si vous avez un marché cible basé sur un pays, placez votre serveur dans ce pays.

(Article traduit de moz.com)
Quitter la version mobile