samedi , 27 mai 2017
Dernières nouvelles
Accueil > Voyances > Black Hat or not black hat ?
Black Hat or not black hat ?

Black Hat or not black hat ?

Les mise à jour de Google se succèdent et le moteur de recherche semble de plus en plus intraitable avec les dissidents SEO ! Mais qui des anarchistes de l’algorithme ou du maître aurait raison de ce combat ?
Un petit tour du discours officiel et de la réalité pourrais nous éclairer sur la position à opter : white hat, grey hat, ou black hat ?

Le discours officiel de Google

matt cutts

Si on pouvait résumer le discours de Matt Cuts en 5 points on serait proche de :

  • Ne pas réaliser de liens extérieur avec une ancre optimisée ayant pour unique but le positionnement
  • Ne pas utiliser de logiciel ou application permettant la soumission automatique de lien
  • Ne pas utiliser de réseau de sites satellites ayant pour unique objectif de faire du référencement
  • Réaliser un contenu adapté à l’internaute ayant pour but d’informer (ou de vendre)
  • Ne pas acheter ou échanger des liens ou articles dans un objectif de positionnement
  • Ne pas utiliser les services de guest blogging ou communiqué ayant pour unique bur le référencement

Au vu du discours officiel de Google, le métier de référenceur n’existe quasiment pas puisque toute réflexion d’optimisation offsite pure SEO sera immédiatement sanctionnée.
Pour se référencer il reste donc les métiers d’attaché de presse, de community manager ou blogeur qui doivent favoriser l’apparition de référencement totalement naturel.
Malheureusement ce discours fait peur et fonctionne car beaucoup d’agence webmarketing ne pratique quasiment plus aucune action dite de popularité offsite en SEO. Elle affiche une stratégie dite white hat 100% alors que le référencement naturel repose encore à 60% sur les actions offsite !
On comprend que google soit là pour garantir la qualité des résultats dans les moteurs de recherche mais de là à centraliser tout sur le payant pas question ! Il serait donc interessant de voir ce que Google peut vraiment contrôler !

Ses capacités réelles  pour être un bon gendarme :

Pour beaucoup d’agences l’arrivée de pingouin a été un coup d’arrêt aux pratiques dites border line en se disant « j’écoute google car de toute façon il est plus fort que moi !« . Financièrement c’est sûr, techniquement aussi mais a-t-il vraiment les moyens d’appliquer ce qu’il dit ? ça c’est moins sûr pour plusieurs raisons.

La prédominance éternelle des backlinks : 

Google est construit et s’est différenciée sur un système de « vote » en site web. Chez Google la notoriété d’un site ne crée pas mais se transfert ! C’est à travers les backlinks que tout circule : notoriété, robot, positionnement. Sans backlinks google n’existe pas ! Aujourd’hui le nombre de backlinks est toujours un des facteurs les plus importants du positionnement dans les moteurs de recherche :
– http://www.seomoz.org/article/search-ranking-factors
– http://www.searchmetrics.com/en/white-paper/google-ranking-factors-us-2012/

A titre d’exemple qui est 1er sur le mot référencement ? http://www.oref.fr/

Si on analyse leur stratégie c’est du 100% backlinks optimisé ! Sur Ahref on a quasiment 341 000 backlinks dont quasi 60% des ancres optimisée sur le mot « référencement » 

Que fais Google ? Où est passé le raz-de-marée pingouin ? Bon ok je ne conseillerais pas une stratégie 100% backlinks pour un client mais arrêtons de suivre comme des moutons !

Google lis moins bien qu’un enfant de CP :

Google lit mal et comprend d’ailleurs moins bien le français que l’anglais 🙂 Il s’appuie d’ailleurs sur d’autres variable comme le taux de rebond, le temps passé sur la page pour savoir si le texte est interessant !

Articles sur le sujet :
– http://www.laurentbourrelly.com/blog/934.php
– http://blog.axe-net.fr/qualite-du-contenu-pour-google/

Mais le problème c’est que Google a aussi du mal à détecter précisément le duplicate content !

Puisqu’il faut un chiffre, on citera Olivier Andrieu qui parle d’une tolérance de 70% de similarité, limite au-delà de laquelle Google se fâche. D’autre avancent que cette tolérance plafonnerait à 50% et d’autres enfin considèrent qu’en deçà de 30% on ne risque rien.

Les réseaux sociaux, talon d’Achille de google  :  

On ne peut pas contester le fait que les réseaux sociaux on pris de l’importance dans le référencement naturel.

L’étude search Metric 2012 donne même plus d’importance au « facebook share » qu’au backlinks ! (Etude à relativiser un peu exagérée). Cela dit Facebook n’a jamais eu aussi de poids dans le SEO ! Mais facebook est le principal concurrent de Google ! Donc on fait comment ? C’est bien le problème car Facebook ne donne pas libre accès a son algorythme surtout pas à Google. Donc au final la vision de la popularité Facebook se limite souvent au quantitatif plusque qu’au qualitatif. Quand t’achète des likes sur une page de contenu Google y  voit que du feu…
Les réseaux sociaux sont donc une partie qu’il ne maitrise pas complètement
Facteur de postionnement

Quand les humains se substitue à la machine : 

Mais le coup de grâce et l’aveu de faiblesse de Google c’est bien  la création d’une équipe  « Google anti-spam ». Cette équipe, dont l’objectif est de maintenir une bonne qualité de résultats de recherche, cherche à identifier et pénaliser les sites ayant obtenu leur positionnement sans respecter les règles dictées par Google. Je met ma main à couper que dans la liste des grands perdants de Google Panda il y a eu une action manuelle de la part de la spam team ! Je passerais la création de l’option desaveu de lien de Google Webmaster Tools piège à con pour certains 🙂

Google a conscience de ses faiblesses er recrute des humains pour combler ses faiblesses en attendant de trouver des solutions techniques. Comme dit Laurent Bourelly « Google a créé un monstre algorithmique dont il a perdu le contrôle ».  

Des imperfections mais pour combien de temps ?

grey-hat

Alors qu’est ce qu’on fait après tout ça ? Google a les faiblesses du Goliath mais fait tout pour combler ses lacunes et trouvera un jour ou un autre des parades pour en venir à bout !Je déconseille d’office toutes les pratiques border line d’un point de vue pénal : spamming de masse, scrapt content,  hacking…
En revanche, je reste convaincu qu’être un bon référenceur c’est accepter d’être un peu Grey Hat. Alterner linking très qualifié avec une rédaction manuelle et des soumissions sélectives avec de l’automatisation et des réseaux de blogs satellites bien faits.
Peu importe les techniques utilisée le haut de l’iceberg doit rester 100% clean surtout quand il s’agit du site d’un client !  Les pure black hat utilisent des stratégies border le plus souvent pour des money site avec du adsense ce qui n’est pas comparable à une boutique e-commerce avec des salariés  ! La prise de risque n’est donc forcement pas appréciée de la même manière.. 
C’est pour cette raison que je déconseille de mettre en place une stratégie pure black hat qui repose uniquement sur de l’automatisation ! Sans liens dit « de confiance » ou une stratégie SMO active la pérennité de votre site sera menacée.

Tout est donc une question de gourmandise 🙂 Le grey hat doit-être est un complément nutritionnel à une stratégie globale structurée ! 

A propos de Eric

Eric
Consultant SEO & E-commerce & Business Developpeur & Web Digital | Créateur de Sortirtoday.fr - Mesannuaires.fr - Jecreemonblog.fr - Devenezblogueurpro.com - Weblinkseo.fr - Achetezdeslikes.com - Achatdesiteweb.com - Lookyouporn.com - Xlivelookyouporn.com

Un commentaire

  1. entièrement d’accord: sur une requête spécifique, on regarde les 3 premiers sur google et les 3 ne sont pas tous tout de blanc vêtus …

Répondre

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués d'une étoile *

*