mar
22
2013

Liens de mauvaise qualité moins tolérés par Google

Cela fait environ 6 mois que Google Penguin 3 a été mis en place. Zoom sur les changements et conséquences de sa venue sur les techniques de référencement.

Le site de Ian Lurie a révélé une étude qui porte sur le seuil de tolérance de liens de mauvaise qualité par Google et au-dessus duquel des sanctions peuvent s’appliquer.

Avant l’arrivée de l’algorithme Penguin 3 en Octobre 2012, ce seuil était 30% plus élevé qu’il ne le serait aujourd’hui. C’est-à-dire que le big G a diminué son seuil de tolérance depuis 6 mois et qu’il sanctionne donc de plus en plus sévèrement les sites contenant ce types de liens.

Comment Ian Lurie en est-il arrivé à cette conclusion ?

Lui et sa société Portent ont réalisé une étude d’analyse d’environ 50 sites et 500 000 liens. Grâce à des outils de mesure de qualité des sites et des liens sortants et entrants comme Majestic Seo et Open Site Explorer, ils ont pu en déduire ce résultat, quelque peu inquiétant pour les experts en référencement.

Quel est le seuil de tolérance de Google ?

L’équipe de Matt Cutts et ses outils performants doivent très certainement pénaliser les sites ayant 50% de liens entrant ou sortant de mauvaise qualité.

Avant Penguin, au cours de l’année 2012, ce seuil aurait été de 80% environ.

En diminuant son seuil de tolérance de 30%, Google compte bien « rétablir l’ordre sur internet » !

 

Voici un graphique présentant cette diminution du seuil de tolérance des liens spammés avant d’éventuelles sanctions Googliennes :

penguin 2012

Diminution du seuil de tolérance de spam par Google

Quelques petites remarques..

Les résultats de cette étude sont certes très intéressants, mais il reste aux référenceurs à définir ce qu’est réellement un lien de « mauvaise » qualité.

Un site peut être de confiance et comporter des liens douteux, ou l’inverse, si l’on ne sait pas exactement ce qu’est un site « douteux » il reste difficile d’établir une vraie « justice » entre les sites..

Google est certainement plus précis et plus subtil dans sa manière de faire son tri. Mais ne communiquant pas ses moyens, ses seuils ou son degré de tolérance, il ne nous reste plus qu’à nous baser sur ce genre d’études et sur les annonces de Matt Cutts pour nous faire une idée de ce qui nous attend !

 

 

1 Commentaire

+ Ajouter un commentaire
  • Bonjour,

    On voit très bien que ce géant Google ne cesse de s’évoluer avec une méthodologie de classement des sites assez rigide pour assurer de la bonne qualité aux internautes.

    J’aimerais bien savoir le seuil appliqué en ce moment ?

    Merci bien.

Ajouter un commentaire

Référencement Page 1

Référencement Page 1

Réseaux sociaux