Matt Cutts Film Marathon

Cet article est l’aboutissement de deux de mes rêves de toujours : (1) passer une journée entière sur YouTube et l’appeler “travail”, et (2) voir le visage de Photoshop Matt Cutts sur la nourriture des dessins animés. Au début de 2009, Matt Cutts, l’ingénieur anti-spam le plus visible de Google, a commencé à publier une série de courtes vidéos d’aide aux webmasters. Vous avez probablement vu certaines de ces vidéos, mais ce que vous ne savez peut-être pas, c’est qu’il y en a actuellement plus de 200, dont plus de 70 publiées en 2010 seulement.

De temps en temps, j’ai été étonné par les détails qui s’échappent de ces vidéos, dont beaucoup ne sont pas beaucoup diffusés dans la blogosphère. J’ai donc décidé de regarder toutes les vidéos de 2010 et de rendre compte de ce que j’ai appris. Cet article contient mes 10 meilleurs choix ainsi que quelques informations intéressantes et une CONSPIRATION CHOQUANTE.

Clauses de non-responsabilité obligatoires

Éliminons cela, car Matt semble être un paratonnerre pour la controverse. Je suis un gars sympa, mais si vous ne lisez pas cette section, ne vous attendez pas à ce que je réponde à vos commentaires.

Je ne parle pas pour Matt

À part avoir joué quelques mains de Search Spam avec Matt au fil des ans (je pense que nous sommes 1 et 1), je ne le connais pas et je n’essaie pas de lui mettre des mots dans la bouche. J’ai utilisé les titres vidéo originaux, à titre de référence, mais le reste est paraphrasé. Je vous encourage fortement à regarder les originaux.

Ne crois pas tout ce que tu entends

Matt, comme tout le monde, a des intérêts particuliers et Google n’a aucune motivation pour nous dire tous les détails sur le fonctionnement de l’algorithme.

Ne le faites pas discroire tout, soit

Je ne pense pas que Matt passe la nuit à intriguer sur la façon de tromper les référenceurs. Je pense que c’est un gars intelligent et décent qui se soucie de la qualité de la recherche.

Mes 10 meilleurs choix

Une note rapide, avant de révéler mes choix (compte à rebours de 10 à 1). Si vous voulez que Matt réponde à vos questions, il est apparemment utile d’avoir un nom qui sonne bien, comme “Magico” ou “Youser”. À partir de maintenant, je demanderai à mon Muppet Intern Yoozer de soumettre toutes mes questions d’aide.

10. Dois-je passer du temps sur les balises meta keywords ? (19 avril)

Mat dit : “Je ne passerais même pas 0 minutes dessus, personnellement”.

Je sais que la plupart d’entre vous le savent, mais c’est bon de l’entendre de la source. Google n’utilise pas la balise META des mots-clés pour le classement. La méta description a encore de la valeur pour d’autres raisons (Regardez la vidéo – 1:21).

9. Comment la structure de l’URL affecte-t-elle le PageRank (6 avril)

Mat dit : “Google ne s’inquiète pas tellement de la profondeur d’un ensemble de répertoires.”

Cet article soulève une distinction importante – la structure de l’URL n’est pas la structure du lien. Nous rencontrons fréquemment cette confusion dans les questions-réponses. Disons que vous avez une URL comme celle-ci :

http://www.example.com/year/month/day/topic/blog-post-title

Cette page n’a pas 5 niveaux de profondeur, simplement parce qu’elle se trouve 5 /s derrière le domaine racine dans l’URL. La profondeur de la page est déterminée par votre architecture interne et la structure des liens. La longueur de l’URL peut affecter la puissance des mots-clés dans l’URL et le taux de clics de l’URL, mais les robots ne se soucient pas vraiment de trouver vos pages. Ce qui compte, c’est si cette page est à un saut de la page d’accueil ou à 10 sauts de distance (Regardez la vidéo – 2:04).

Remarque : les données de corrélation SEOmoz ont montré qu’une structure de dossiers plus profonde peut être corrélée à des classements moins bons. Les structures de dossiers profonds peuvent être une indication d’autres problèmes, notamment des problèmes d’architecture des informations.

8. Puis-je m’assurer que Google utilise toujours mes balises meta description ? (24 mars)

Mat dit : “La réponse courte est non’.”

J’entends beaucoup cette plainte. Google réécrira parfois ses propres extraits pour plus de pertinence. Vous pouvez bloquer l’ODP et vous pouvez écrire des méta-descriptions pertinentes et uniques, mais vous ne pouvez pas contrôler complètement ce que fait Google (Regardez la vidéo – 1:52).

7. Le fait d’avoir des commentaires dofollow sur mon blog peut-il affecter sa réputation ? (22 février)

C’est un intéressant en deux parties. Tout d’abord, les liens sortants vers des sites de spam peuvent avoir un impact négatif sur votre réputation. Gérez vos liens sortants et nofollow si nécessaire. Les liens de spam entrants individuels ne vous nuiront généralement pas, car ils échappent à votre contrôle (bien que, d’après mon expérience, un modèle de liens de spam entrants puisse être une autre histoire). Matt a d’excellents commentaires à la fin sur la valeur des commentaires sur les blogs dofollow (Regardez la vidéo – 2:35).

6. Les sites Web de liens croisés sont-ils mauvais ? (25 janvier)

Mat dit : “Je me demanderais : ces sites Web sont-ils vraiment liés d’une manière ou d’une autre ?”

Lorsque Matt veut lire des dessins animés, les liens vers l’assurance automobile et les tables basses le rendent triste. Le cross-linking de 3 sites n’est probablement pas un gros problème, mais 30 ou 300 pourraient probablement vous causer des ennuis. La pertinence est la clé, et les liens croisés du pied de page sont souvent de faible valeur (Regardez la vidéo – 2:00).

5. Comment puis-je faire en sorte que Google indexe davantage d’URL de mon sitemap ? (23 mars)

Mat dit : “Je ne m’attarderais pas sur le nombre de pages indexées…”

Nous entendons celui-ci de la part de webmasters frustrés tous les jours. Google ne garantit pas que les pages de votre sitemap XML seront indexées. L’indexation a beaucoup à voir avec votre autorité et votre confiance – un site faisant autorité obtiendra plus d’amour de la part des crawlers, purement et simplement (Regardez la vidéo – 1:31). Découvrez le récent article de Rand approfondissant les commentaires de Matt sur le plafond d’indexation.

4. Le changement d’hébergeur causera-t-il des problèmes de référencement ? (9 février)

Mat dit : “La plupart des gens peuvent changer leur adresse IP et n’ont jamais aucun problème.”

Il s’agit d’une crainte courante qui est généralement infondée. Tant que votre nom de domaine et votre pays d’hébergement restent les mêmes, le passage d’un hébergeur fiable à un autre ne devrait avoir aucun impact sur le référencement. Matt donne un bon briefing sur la façon de changer les serveurs DNS et de définir votre TTL qui vaut la peine d’être regardé (Regardez la vidéo – 1:53).

Remarque : bien que je l’aie sous-entendu dans le récapitulatif, cela mérite d’être répété. Si vous changez de nom de domaine et/ou de pays d’hébergement, cela peut certainement affecter votre classement et c’est un problème beaucoup plus complexe. Considérez les risques et planifiez en conséquence, dans ces cas.

3. Les données de Google Analytics jouent-elles un rôle dans le classement d’une page ? (2 février)

Mat dit : “Je vous promets que mon équipe ne demandera jamais à l’équipe d’analyse d’utiliser ses données.”

Je ne pense pas que vous entendrez une réponse plus directe de Matt que cela. Les théories du complot abondent, mais il y a 3 vidéos distinctes en 2010 où Matt déclare que l’équipe de qualité n’utilise pas les données de Google Analytics. Bien sûr, cela ne signifie pas que les métriques des utilisateurs (taux de clics, etc.) ne sont pas un facteur, mais elles proviennent plus probablement d’autres sources, telles que le suivi SERP (Regardez la vidéo – 1:17).

2. Pouvez-vous nous donner une mise à jour sur les classements pour les recherches à longue traîne ? (30 mai)

Il s’agit d’une discussion sur la mise à jour dite “Mayday”. Matt déclare clairement que Mayday est un changement algorithmique délibéré pour améliorer la qualité des recherches à longue traîne, et ce n’est pas temporaire. Il n’est pas lié à la caféine, bien que la chronologie de déploiement se chevauche quelque peu (Regardez la vidéo – 2:39).

1. Dois-je être obsédé par les temps de chargement ? (Le 5 mai)

Mat dit : “Nous avons envisagé en 2010 d’utiliser la vitesse de page…”

Il y a quelques points importants ici. Tout d’abord, Google n’avait même pas finalisé la décision d’utiliser la vitesse des pages comme facteur de classement avant ce printemps*. Deuxièmement, la vitesse de la page n’est qu’un facteur parmi plus de 200. Toutes choses étant égales par ailleurs, un site rapide est bon pour les utilisateurs et bon pour la recherche, mais un problème de serveur occasionnel ne va pas tuer votre classement. Si vous pouvez accélérer votre site avec quelques changements simples, pourquoi ne pas le faire (Regarder la vidéo – 2:28) ?

*Edit : Comme Lindsay le souligne ci-dessous, le billet de blog de Matt du 9 avril suggère que la vitesse de la page a été intégrée comme facteur de classement. L’un des problèmes avec les dates sur les vidéos est qu’elles sont souvent enregistrées un peu avant leur sortie. Dans la vidéo du 5 mai, Matt suggère que Google n’a pas pris de décision définitive sur l’utilisation de la vitesse de la page, mais la réalité est que cette décision a probablement été prise en mars ou avril.

Mentions honorables

3. Combien de robots Google possède-t-il ? (30 février)

Ceci est une belle revue de ce que sont réellement les bots/spiders. Ce ne sont pas de vrais robots qui viennent frapper à votre porte. C’est une bonne introduction courte pour les nouveaux référenceurs (Regardez la vidéo – 1:30).

2. État de l’indice 2009 (20 janvier)

C’est long et légèrement obsolète, mais c’est un bon aperçu de ce qui s’est passé en 2009. Il contient une explication solide de rel=canonical, ainsi que le blocage et la récupération des paramètres en tant que fonctionnalités de Googlebot dans les outils pour les webmasters. . Il se termine par une brève explication de ce qu’est la caféine (Regardez la vidéo – 25:59).

1. Combien de changements d’algorithme de recherche ont été effectués en 2009 ? (22 avril)

Google modifie l’algorithme de l’ordre d’UNE FOIS PAR JOUR. Ces changements peuvent être regroupés et déployés par morceaux, mais une autre vidéo a confirmé un certain nombre d’environ 400 l’algorithme change en 2009. Si vous pensez que le 1er mai et la caféine sont les seules choses qui se sont produites en 2010, détrompez-vous. Google est en constante évolution. Cette vidéo comprend également une déclaration que vous n’entendez pas de Matt tous les jours – Un bon contenu est nécessaire, mais pas suffisant (Regardez la vidéo – 1:53).

La conspiration choquante

Bien sûr, ce ne serait pas un article sur Matt Cutts sans complot. Si vous regardez les vidéos de 2010, vous verrez une transformation choquante, où Matt passe d’avoir des cheveux à l’absence de cheveux à nouveau presque instantanément. J’ai représenté graphiquement ce phénomène ci-dessous:

Matt affirme que cela a quelque chose à voir avec le timing des vidéos et de les filmer par lots, bla bla bla, mais ceux d’entre nous qui sont avertis sont obligés de tirer l’une des deux conclusions suivantes :

  1. Google a découvert le secret de la repousse des cheveux et refuse de le partager.
  2. Matt est, comme je l’ai souvent soupçonné, une extension cybernétique de l’algorithme de Google.

Donc, voilà. Mes 10 meilleurs choix de 2010 (jusqu’à présent), quelques bobines phares et une conspiration choquante, comme promis. Soit dit en passant, si vous êtes un débutant ou si vous êtes intéressé par des conseils généraux sur le référencement comme ceux-ci, assurez-vous de consulter notre guide du débutant entièrement révisé et gratuit.

(Article traduit de moz.com)
Quitter la version mobile