oct
19
2012

Un ex-salarié de Google dévoile quelques secrets du référencement 100% naturel

Quelques conseils en référencement google ont été donné par Andre Weyher, ex-salarié de la Google Search Quality Team et ex-collègue de Matt Cutts !

Andre Wehyer, un ancien de l’équipe Matt Cutts

Comme nous le savons maintenant, le référencement white hat est une technique qui permet d’améliorer le positionnement des sites dans les résultats de Google grâce à l’amélioration du contenu de ces sites et via des méthodes de référencement et de netlinking très propres et naturelles. C’est également notre manière de procéder à Référencement Page 1 et c’est la raison pour laquelle nous prônons un référencement google sain, avec des liens de très bonnes qualités et qui se rapprochent le plus des règles strictes ordonnées par Google pour être à la hauteur et conserver une place concurrentielle sur les moteurs de recherche, et sur Google en particulier.

Cette technique « clean » nécessite beaucoup de travail et beaucoup de concentration et de connaissances car il ne suffit pas de se renseigner sur les méthodes basiques de référencement ou celles datant d’il y a 8 mois..

Pour en savoir plus sur les meilleurs moyens de parvenir à un résultat naturel et bien façonné, nous vous proposons de vous faire part de cette interview que James Norquay a eu avec Andre Weyher lors d’une rencontre en Australie.

En effet, Andre Weyher, chargé de lutte contre le référencement black hat et les diverses méthodes de spamdexing, a préféré quitté l’équipe de Matt Cutts aux Etats-Unis pour rejoindre celle de Sidney,nous verrons pourquoi.

James Norquay, commercial web chargé de projets pour de grosses industries en Australie et en Asie Pacifique assistait justement à une conférence sur la recherche industrielle à Sydney, lorsqu’il rencontra Andre Weyher.

Curieux de savoir pourquoi il avait quitté le célèbre Matt Cutts et toutes les informations « secrètes » de Google par la même occasion, James Norquay lui posa quelques questions en rapport avec ce qu’il savait des méthodes de référencement white hat. Voilà ce qu’il faut en retenir d’un point de vue pratique :

Résumé chronologique de l’interview :

1 ) Une expérience SEO chez Google

En premier lieu, James Norquay demanda à l’expert de faire un petit résumé de son expérience et de sa carrière au sein de l’équipe de Recherche et Qualité de Google.  Ce dernier a rappelé qu’il a travaillé 5 ans au sein de Google, dont 2 ans dans l’équipe de Matt Cutts et a souligné la bonne ambiance qui y régnait au quotidien. Ce travail lui plaisait beaucoup car il le jugeait unique et très intéressant, surtout au niveau des recherches intenses et profondes qu’il effectuait dans chaque recoin d’ Internet. C’était un plaisir pour lui de détecter les méthodes de référencement black hat et de pouvoir les combattre, surtout lorsqu’il en voit aujourd’hui les fruits lors de ses recherches sur Google.

2 ) Une lutte contre le spamdexing

La deuxième question porta sur le rôle exact de son travail chez Google, question à laquelle Andre Weyher répondit qu’il s’occupait de l’arrestation des liens « sales » et des spams sur le moteur de telle façon à ce que l’internaute puisse être satisfait du résultat de sa recherche. Il souligna aussi l’importance d’un tel travail pour Google qui perdrait toute crédibilité si ses résultats n’étaient plus conformes aux attentes des utilisateurs qui seraient contraints d’en choisir un autre pour répondre à leurs besoins. Il précisa ensuite qu’il était plus particulièrement attaché à son poste de vérificateur de qualités et de profils de back links ainsi qu’à la qualité des liens et des pages qui menaient vers eux. Il rédigeait ensuite des rapports à propos de ces spams.

3 ) Les dégâts de Penguin et Panda et les nombreux chamboulements

Troisièmement, l’interviewer lui demanda si les récentes créations d’algorithmes Penguin et Panda lui inspiraient des réflexions particulières ? Biensûr Andre Weyhmer lui confessa que beaucoup de modifications allaient encore être opérées à ce niveau-là et que les algorithmes Google n’allaient pas diminuer dans le futur. Le message qu’il veut fair passer est que les entreprises industrielles ou autres qui tentent de référencer leurs sites de manière non naturelle allaient très certainement être sérieusement pénalisées. L’équipe Matt Cutts savait que l’ impact de l’algorithme Penguin qui vise les liens de mauvaise qualité allait être grand, mais les internautes ne s’attendaient tout de même pas à un tel impact au niveau de leurs sites indexés. Beaucoup on été surpris par une si forte baisse de position de leurs sites. Il précise qu’il est impossible pour un Webmaster actuel de reproduire les même techniques de référencement qu’il opérait il y a encore 8 mois de cela. Il y a encore 8 mois, ceux qui achetaient des liens savaient que cela était dangereux mais pouvaient très bien passer entre les mailles du filet et n’étaient pas pénalisés. La différence est qu’aujourd’hui la question à se poser n’est plus de savoir si vous allez passer entre ces mailles ou non, mais de savoir quand vous allez y passer ! On peut dire de même pour la qualité et la pertinence des liens menant vers les sites à PageRank élevés, si ces liens n’ont pas de rapport avec le contenu de votre site ou texte en particulier, ces liens n’auront plus aucune valeur !

4 ) Les critères à prendre en compte pour détecter les spammeurs

La quatrième question concerne les moyens employés par Google pour détecter et pister les sites diffusant des spams. A cette question il répondit que ces sites étaient classés selon différentes catégories en fonction de leurs types de spams, et qu’il ne traitait pas de la même manière un site qui abuse des mots-clés ou un autre qui cachait des informations stupides sous le CSS tels que des textes remplis de mots-clés écrits de la même couleur que celles utilisées pour les fonds des sites en espérant qu’il ne le verrait pas d’un point de vu visuel. La qualité du contenu est aussi un critère déterminant sachant que l’on remarque tout de suite un site construit pour accueillir des liens et un autre qui est entièrement authentique et dont le contenu est naturel.

5 ) Les critères pour déterminer quels sont les sites porteurs de liens spammés

La cinquième question se rapproche un peu de la quatrième dans le sens où James Norquay cherche à connaître les techniques utilisées par Google pour détecter les liens issus de sites spammés, ou les liens spammés émanent de sites natuels. Il y a également des sites commerciaux qui basent leurs liens sur des ancres exactes, autrement dit qui placent leurs liens sur des mots-clés stratégiques pour augmenter leurs notoriétés. Il avoua ainsi qu’il était très simple pour lui de détecter les profils black hat des profils naturels rien qu’en comparant les ancres de liens qu’il aurait dû y avoir et celles qu’il y a réellement. Il précisa que n’importe qui était capable d’imaginer de manière logique et censée l’ancre qu’il aurait dû y avoir et celle qui a été convertie en argent..

 6 ) Les 3 techniques générales recommandées pour un référencement naturel

Lorsque la sixième question abordée par James Norquay traita du netlinking On Page (cf l’article précédant), Andre Wehyer s’exclama qu’il s’agissait d’une excellente question et que c’était un aspect du référencement que peu de personnes utilisait mais qui pourtant était l’une des plus importantes pour un référencement réussi.

  • Il précisa en premier lieu qu’il était important de choisir une URL adaptée au site et que si le nom de domaine du site était bien choisi il se verrait déjà avoir une longueur d’avance sur ses concurrents. C’est pour cette raison que certains noms de domaines sont plus chers que d’autres.
  • La deuxième technique pour optimiser son référencement est de bichonner ses titres H1/H2 et ses descriptions. Il fit alors une petite métaphore en disant que la plupart des gens sont tellement pressés de mettre de l’essence dans leurs voitures (netlinking) qu’ils en oublient de vérifier l’état de leurs pneus (contenu). L’essentiel est de rester naturel. Il ne faut donc pas non plus abuser dans l’optimisation du contenu des titres d’un site car Google le remarque très vite, surtout s’il y a deux mots-clés qui apparaissent dans un titre commercial !
  • Enfin, la dernière et troisième technique concerne le côté naturel du contenu et des textes présents sur le site. Il conseilla de rédiger les textes du sites comme si le référencement n’existait pas en soi et comme si l’auteur ne connaissait aucune technique de SEO. Il conseilla donc d’être le plus sincère possible en ce qui concerne la création du site et de montrer un véritable enthousiasme au niveau du contenu de ses pages. « Voilà ce que Google cherche à vous faire faire, même s’il est tentant pour vous de recourir à d’autres techniques soit-disant plus efficaces, sachez que c’est celle-ci qui marche le mieux et qui paiera ! Pour Google les informations présentes sur votre site sont plus précieuses que vous ne le pensez ! »

 7 ) Les 3 techniques générales à bannir lors de la création et du référencement d’un site

James Norquay poursuivit son interview avec une septième question, celle de savoir qu’elles étaient les techniques à ne plus faire en matière de référencement et création de sites. Andre Weyher rétorqua que toutes les techniques de référencement automatiques étaient à bannir et que tout ce qui était fait en chaîne aussi. Selon lui il faut bien garder ça en tête :

  • le netlinking ressemble désormais plus à une campagne relationnelle amicale qu’à un processus purement technique. Par exemple, une bonne idée serait de lier un système de réseau entre les différents propriétaires des sites liés au vôtre ! Il donna en exemple une entreprise spécialisée dans la fabrication de fromage qui tendrait la main à l’industrie laitière et donnerait ainsi plus d’ importance à son PageRank et à son carnet d’adresses.
  • En effet, contrairement à certaines rumeurs qui courent sur le net en ce qui concerne la formation de répertoires professionnels, ils sont plutôt favorables, en tous cas ceux qui sont modérés, ou dans un secteur d’activité précis dit de « niche » et forment donc une activité intéressante au niveau du référencement pour Google.
  • Enfin, » toujours en ce qui concerne le contenu des pages de votre site, il serait bien que l’une d’entre elles contienne un lien vers votre profil Google+ et que ce profil contienne l’adresse de votre site en favori pour lui donner plus de poids et pour que Google juge ce lien comme un lien de qualité ». Il précisa aussi que 3 liens authentiques et de qualité menant vers votre site avaient plus de valeur que 1000 liens provenant de blogs spammés.

8 ) Quelques secrets et conseils supplémentaires

Pour son avant-dernière question, James Norquay lui demanda si, entant qu’ancien membre de l’équipe de recherche et développement de Google, il pouvait nous dévoiler d’autres secrets ou quelques conseils supplémentaires. Il répondit que la question était difficile car il  y avait beaucoup de secrets au sein de Google. Même si cela pourrait nous decevoir, ce qu’il a à dire aux gens est la chose suivante :  » Si vous souhaitez que votre référencement plaise à Google, alors oubliez le référencement. Google veut que vous construisiez votre site comme si vous ne cherchiez pas à manipuler ses algorithmes mais comme quelqu’un de naturellement passionné par son contenu. Si vous l’êtes vraiment, votre objectif sera atteint, votre contenu sera optimisé et votre audience vous suivra. Sinon, à part cela, suivez Matt Cutts sur Google+ ».

9 ) La tendance est au social

Notre interviewer demanda ensuite à Andre Weyher ce qu’il pensait du nouveau rôle que jouait l’intégration sociale pour les sites qu’on cherche à référencer. Ce dernier répondit que cette tendance était très largement perceptible aux yeux de tous et il ajouta que Google allait préciser ses recherches au niveau local. C’est ainsi qu’au lieu de proposer des réponses géographiquement nationales, Google allait en proposer au niveau local. Le réseau social Google+ jouera alors un grand rôle à cet égard. On pouvait se douter de l’importance que prenait Google+ pour Google dès lors que ce dernier avait décidé d’intégrer Google+ dans ses résultats et depuis que Google lui donne plus d’importance on peut facilement imaginer qu’il en donnera encore plus dans l’avenir. Il ajouta qu’on pouvait parier sur la place grandissante qu’occupait Google+ pour Google et que donc ceux qui cherchaient à créer un profil pour leurs sites ne devaient pas hésiter…

10 ) Un nouveau projet pour Andre Weyher

La dernière et non moins intéressante question de James Norquay portait sur le projet d’ Andre Weyher. Celui-ci a en effet créé un nouveau projet avec son partenaire d’affaires. Il s’agit d’un site mondial de prises d’empruntes digitales version web : http://netcomber.com/. En voici un apperçu :

Leur système utilise plus de 3000 facteurs afin d’identifier les sites qui appartiennent à une même personne. Vous entrez donc le nom d’un site et le calculateur vous trouvera la personne à qui il appartient, et les autres sites détenus par cette personne. Pour se faire, ils utilisent des facteurs comme les identifiants de comptes, l’hébergement des informations et de manière générale l’ensemble des systèmes de codages utilisés pour déterminer à qui appartient le site. Il indiquerait aussi la nature des relations normalement cachées en raison de l’anonymat de ces données. Il précisa que les moteurs de recherche ont depuis toujours utilisé ces techniques pour lutter contre le spamming et pour controler la qualité du réseau. Andre Weyher ajouta « La seule différence est que ces données étaient toujours stockées en interne, mais nous, nous en faisons un outil externe ! » .

Cet outil peut également être utile aux référenceurs pour connaître la valeur du carnet d’adresses qu’ils souhaitent acquérir (si quelqu’un possède 500 sites dans un domaine précis cela vaut peut-être le coup de s’y joindre !). Cela constituerait donc une bonne base pour ceux qui souhaitent avoir de nouvelles idées pour d’éventuels partenariats et liaisons ou tout simplement garder un oeil sur la compétitivité ou les concurrents… Et beaucoup d’autres fonctionnalités encore !

« Actuellement, cet outil n’est basé que sur 20 millions de sites mais dans quelques semaines notre exploration de sites atteindra le quota de 200 millions, c’est la raison pour laquelle notre site est encore en version BETA ! »

 

Enfin, James Norquay n’oublia pas de remercier et de saluer Andre Weyher qui lui a consacré ces quelques minutes d’ interview et le remercia d’avoir répondu à ces questions de façon sincère et transparente.

 

 

 

1 Commentaire

+ Ajouter un commentaire

Ajouter un commentaire

Référencement Page 1

Référencement Page 1

Réseaux sociaux