Blogging

Je m’inquiète de plus en plus de l’efficacité du spam Web

Pendant longtemps, si vous m’avez posé des questions sur le spam des moteurs de recherche, que ce soit avec des tactiques de black hat hardcore ou simplement l’acquisition de liens grey hat, je dirais qu’à long terme, ce n’était pas la bonne décision. Construire un excellent site et une excellente marque grâce à un travail acharné, des liens white hat, un contenu solide et des stratégies de marketing a toujours été ma voie de prédilection. C’est toujours le cas aujourd’hui, mais ma foi est définitivement vacillante.

Pourquoi?

Au cours des 12 derniers mois, j’ai vu (ou, du moins, ressenti) moins de progrès de la part de l’équipe de lutte contre le spam de Google que lors de n’importe quelle année précédente dont je me souvienne. Les services de liens payants populaires dont les spécialistes de la qualité de recherche de Google sont clairement conscients fonctionnent depuis des mois (certains le font depuis des années). Les annuaires minables et de mauvaise qualité et les échanges de liens ont fait leur retour depuis les grandes fermetures de 2007-2008. Même les échanges de liens hors sujet, qui ont connu leur propre retour en arrière en 2006-2007, ont recommencé à fonctionner. Des sites horriblement mauvais se classent au sommet des résultats en utilisant à peine plus que des noms de domaine exacts et quelques liens de mauvaise qualité. Il y a même un retour des fermes de liens du début des années 2000, avec des opérateurs créant (ou achetant d’anciens domaines et les convertissant en) sites junky d’une page pour augmenter leur propre popularité de liens.

Sur presque tous les résultats de recherche commercialement lucratifs que j’obtiens ces jours-ci, je vois de mauvais liens poussant de mauvais sites dans les meilleurs classements de Google.

Exemples de spam Web dans les classements

J’ai fait la promesse à Aaron que je n’éliminerais pas les spams, et bien que je ne pense toujours pas que ce soit la mauvaise chose à faire moralement (cela nuit à l’expérience de recherche/web de tout le monde, pourquoi les référenceurs devraient-ils s’unir pour le protéger ?) , je veux tenir cette promesse. Ainsi, bien que je ne puisse pas vous indiquer des liens ou des sites particuliers, voici un bon ensemble de requêtes où de nombreuses manipulations de liens maintiennent quelques-uns, certains ou plusieurs des sites les mieux classés (5-10) dans ces positions :

  • Logiciel de référencement
  • Stratégies Starcraft 2
  • Fournitures de fête d’anniversaire
  • Trading de devises en ligne
  • Avis sur les raquettes de tennis
  • Fournitures d’artisanat du cuir
  • Services de nounou
  • Idées d’affaires à domicile
  • Portes françaises
  • Visites au Vietnam
  • Suppléments antioxydants
  • Évaluations des machines à expresso pour la maison

Exécutez simplement quelques rapports OSE sur certains sites qui se classent bien ici et vous verrez ce que je veux dire. Il existe de nombreux acteurs dans ces listes qui n’ont pas un seul lien naturel ou approuvé par la rédaction. Et vous n’avez pas non plus besoin de vous limiter à ces requêtes.

3 étapes pour trouver beaucoup de manipulation de liens

Étape 1 : Recherchez “SEO Friendly Directory” et visitez quelques-unes des sections incluses dans les sites résultants qui apparaissent.

Étape 2 : Recherchez les principaux mots-clés ciblés par les sites répertoriés dans les annuaires dans leurs balises de titre ou dans le texte d’ancrage qu’ils ont obtenu des annuaires.

Étape 3 : Consultez les 5 à 10 meilleures listes du classement et vous trouverez une abondance de sites avec peu ou pas de liens “naturels”.

Pourquoi Google ne pénalise-t-il pas tant de spams/manipulations ?

Je ne sais pas. Mais j’ai quelques suppositions :

  • Évolutivité des tactiques de lutte contre le spam – il se peut que la capacité de l’équipe de Google à lutter contre le spam Web ait diminué en raison de l’augmentation de la taille, de la complexité et de la demande de recherche. Peut-être que la lutte contre le spam est un problème beaucoup plus difficile dans les centaines de milliards de pages que dans les 10.
  • Ils travaillent sur quelque chose de grand – pendant de nombreuses années, Google a laissé passer beaucoup de spams dont il avait clairement connaissance… pendant un certain temps. Ensuite, ils publieraient une mise à jour algorithmique pour vaincre une énorme couche de spam ou paralyser sérieusement certains types de manipulation de liens. Si tel est le cas aujourd’hui, ce serait l’un des plus longs délais entre les mises à jour que nous ayons vus (MayDay a eu un petit impact, mais ce n’était pas une manipulation de liens ciblée de tout ce que j’ai vu).
  • Trop de bébés jetés avec l’eau du bain – peut-être qu’avec la popularité croissante de la manipulation de liens et du spam, Google a découvert qu’il ne pouvait pas pénaliser une technique ou des sites l’utilisant sans réduire considérablement l’utilité de son index (parce que tant de “bons” sites/pages “pertinents” quelques trucs sales aussi). Si tel est le cas, ils devront travailler sur des systèmes de détection et d’élimination beaucoup plus subtils et ciblés, et ceux-ci pourraient être beaucoup plus difficiles à utiliser.
  • Fuite des cerveaux de l’équipe WebSpam – L’équipe de lutte contre le spam constituée par Matt Cutts de 2001 à 2006 était la crème de la crème de Google. Il a personnellement sélectionné des ingénieurs de la qualité de la recherche (et d’autres départements) pour lutter contre les menaces du chapeau noir des premiers jours de croissance de Google. Les référenceurs pouvaient fréquemment interagir avec bon nombre de ces fous intelligents, de Brian White à Aaron D’Souza en passant par Evan Roseman et bien d’autres. Cette interaction aujourd’hui est largement limitée à l’équipe des outils pour les webmasters, ce qui peut être un mouvement de relations publiques approprié, mais il est difficile de savoir si la nouvelle équipe est à la hauteur de la tâche. Nous avons un nouveau membre de l’équipe Webspam qui contribue semi-publiquement, Moultano, sur Hacker News (vous pouvez voir tous les fils de discussion auxquels il/elle a participé sur le sujet du spam avec cette requête).

    Matt lui-même prend enfin une pause bien méritée, mais même à la maison, il est beaucoup moins public sur le web, beaucoup moins actif sur les sujets de spam sur son blog, visite moins de conférences et investit maintenant aussi dans des startups (ce qui prend sûrement du temps). Je ne veux en aucun cas critiquer Matt – si j’étais lui, j’aurais quitté Google il y a longtemps (et il a clairement investi plus que ce qu’il doit), mais il est possible que l’équipe qu’il a construite ne soit plus intacte , ou plus de la qualité qu’il était dans les premières années.

  • Vivre et laisser vivre – Il se pourrait que bien que les messages publics de Google sur le spam Web et la manipulation des liens n’aient pas changé, leur attitude en interne a changé. Peut-être ont-ils trouvé que les sites/pages qui achètent des liens ou exécutent des fermes de liens de mauvaise qualité ne sont pas bien pires que ceux qui ne le font pas et avoir des résultats pertinents, même s’ils ont utilisé des tactiques de chapeau noir/gris, n’est pas très préjudiciable à la qualité de la recherche. Certes, dans certains des exemples ci-dessus, c’est le cas, tandis que dans d’autres, c’est moins vrai. Je me souviens qu’il y a des années, l’équipe de MSN Search a noté qu’elle préférait de loin lutter contre les résultats de mauvaise qualité dans l’index plutôt que de lutter contre les résultats de haute qualité qui achetaient des liens. Peut-être que Google est venu à la même philosophie.
  • Ils comptent sur de nouvelles entrées pour aider – Une partie de l’initiative de Google visant à acquérir des sociétés de jeux sociaux, à créer des plates-formes sociales et à conclure des accords de données avec des gens comme Twitter pourrait être d’aider à lutter contre le spam. Ils peuvent espérer que tirer parti de ces nouvelles formes de recommandation/citation moins polluées (ou, du moins, plus facilement traçables) peut être une grande victoire pour le spam Web et la qualité de la recherche.

Pourquoi Rant About Spam?

“Blah. Blah Blah. Et si Google ne faisait pas autant pour arrêter le spam qu’il l’a fait ces dernières années ?” Je vous entends demander.

Ma préoccupation concerne principalement l’expérience des chercheurs et ce que cela pourrait signifier si les résultats sont pollués non seulement par des sites bons ou relativement bons qui achètent ou manipulent des liens, mais par de très mauvaises conneries – le genre qui donne envie aux chercheurs de trouver un nouveau manière d’obtenir des informations sur le web (Facebook Q+A ? Twitter ? Yelp ?). La recherche est aujourd’hui un incroyable marché de créateurs de sites Web, de spécialistes du marketing, de fournisseurs et de clients. Si le dernier d’entre eux – le client – devient lentement désenchanté par Google, le monde du marketing de recherche et l’incroyable utilité de la recherche en général pourraient prendre fin.

Si vous utilisez des moteurs de recherche ou travaillez dans le marketing de recherche, cela devrait être la dernière chose que vous souhaitez.

Cela dit, si vous pensez que la plupart des “spams” finiront par être éliminés soit par des résultats légitimes, soit par de meilleurs sites qui spamment/manipulent également des liens, alors il y a beaucoup moins de soucis à se faire (je ne suis pas complètement dans l’un ou l’autre camp et peut voir les deux côtés).

Alors, que devraient faire les spécialistes du marketing légitimes ?

Veuillez NE PAS sortir et spammer les résultats, acheter des liens, soumettre à des répertoires de merde et ouvrir des fermes de liens. Même avec cette tendance actuelle, je crois que ce serait un très mauvais conseil. De nombreux sites sont capturés et filtrés, et je préférerais savoir que mon site est sûr et que chaque élément de contenu que j’ai ajouté et chaque lien que j’ai créé contribuerait à générer plus de trafic que de s’inquiéter constamment du risque faible mais réel d’être pénalisé ou banni .

Une chose que Google a faite est de continuer à faire de l’expérience de la pénalisation une expérience horrible. Il est difficile de savoir si vous avez vraiment une pénalité, presque impossible de comprendre ce qui l’a déclenché et onéreux, presque Kafka-esque, pour tenter de revenir dans leurs bonnes grâces. Si vous pouvez vivre avec ce risque, comme le font les chapeaux noirs professionnels avec leurs stratégies de barattage et de brûlage, alors c’est moins préoccupant. Mais si vous créez une véritable entreprise, Google génère toujours plus de 70 % des recherches sur le Web aux États-Unis (et plus de 90 % dans de nombreuses autres zones géographiques), et il serait insensé de prendre un risque aussi formidable.

Quant à la question de signaler le spam de vos concurrents, c’est à vous de décider. Cependant, Google en a certainement fait une activité moins probable et moins gratifiante. Presque tous les jours, nous répondons aux questions et réponses PRO liées à la question des manipulateurs de liens surclassant les spécialistes du marketing et les sites légitimes, et je ne me souviens qu’une seule fois parmi les centaines de questions auxquelles j’ai répondu au cours des dernières années lorsqu’un rapport de spam a en fait conduit à action (pour être juste, je ne fais pas un suivi constant de chacun, mais beaucoup de nos membres PRO enverront un ping régulier avec des mises à jour).

Ce que nous pouvons faire, c’est redoubler d’efforts pour créer de superbes sites avec une valeur incroyable pour les gens. Quelle que soit l’expérience de “recherche” du futur, ces sites et pages qui offrent une expérience remarquable sont sûrs de faire surface près du sommet et de recevoir l’avantage supplémentaire des éloges du bouche à oreille, de la propagation virale et des citations sous toutes leurs formes. il peut évoluer vers, à la fois en ligne et hors tension.

Quelques mises en garde à mon expérience

Il y a des millions de requêtes qui sont remarquablement exemptes de spam et Google a toujours fait un travail exceptionnel pour lutter contre le spam au fil des ans. Cependant, le passé récent me fait craindre qu’ils ne soient plus aussi intéressés, diligents ou capables de combattre même les techniques de spam les plus élémentaires.

C’est aussi certainement le cas que je suis régulièrement exposé à de nombreuses requêtes et sujets sur lesquels les référenceurs, à la fois black hat et white, se concentrent, et pourraient donc voir plus de spam que le chercheur moyen (bien que de manière anecdotique, je suppose qu’ils en voient plus , aussi).

Qu’est-ce que tu penses?

Avez-vous vu plus de résultats dans les classements qui fonctionnent bien malgré l’absence de liens “naturels” ? Avez-vous vu Google agir sur les rapports de spam ? Pourquoi pensez-vous que le passé récent a beaucoup moins d’exemples de grosses mises à jour de nettoyage de spam ?

J’attends avec impatience d’excellentes discussions – et cette semaine, je serai à SES San Francisco (sur 5 panels différents !) – n’hésitez pas à m’attraper et à discuter en privé là-bas aussi !

ps En ce qui concerne Bing, le seul autre moteur de recherche américain majeur maintenant qu’il alimente Yahoo! (ou sur le point), mon opinion est qu’ils ont fait des progrès substantiels. Ils sont toujours derrière Google dans de nombreux domaines (et en avance dans quelques-uns), mais au rythme actuel, nous pourrions en fait voir Bing surpasser la détection et le filtrage des spams de Google dans les 18 à 24 prochains mois, bien qu’ils continueront probablement à jouer au catch en pertinence/qualité longue traîne.

(Article traduit de moz.com)

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Index