Désavouer des liens, bonne ou mauvaise chose ?

Il suffit de quelques articles sur la maj de pingouin et l'outil de désaveu de liens de Google pour que d'un seul coup, la petite sphère des webmasters amateurs, qui s'occupent un temps soit peu de la popularisation de leur site, se mettent encore une fois à flipper...

J'ai une pénalité Pingouin, que dois-je faire ? Dois-je désavouer des liens ? Lesquels ?

Attention à ne pas faire n'importe quoi. Petite mise au clair... (toute personnelle)


Google, après avoir travailler sur la qualité des sites avec son algorithme Panda, a lancer il y a maintenant de nombreux mois, sa seconde nouvelle arme absolue, Penguin, dont la dernière maj a été déployé ce 22 mars 2013. Un algo permettant de décortiquer le linking d'un site ou d'une page afin de découvrir (ou non) si celui-ci a été réalisé artificiellement et surtout "abusivement". En d'autre terme, un algo qui en a fait flipper plus d'un.

Google Pingouin

Revenons brièvement sur ce que fait exactement ce nouvel algo. Alors évidement, la vrai réponse est "On en sait rien". Et c'est comme cela pour tout ce qui touche au nouveauté du grand manitou, on ne fait qu’émettre des hypothèses, observer des fait et essayer de tirer des conclusions afin de définir de nouvelles stratégies pour devenir n°1 sur Google.

Evidement, on a d'un coté les info en provenance de Google avec son fameux blog et datant du 21 juin, les dernières précisions(googlewebmastercentral.blogspot.fr), on a le blog de l'ami Matt Cutts (www.mattcutts.com/blog) et pour les accro de la vidéo, leur chaine Youtube (www.youtube.com/user/GoogleWebmasterHelp). Bref plein de moyens de se tenir informer. Malheureusement, les info sont relativement succincts, souvent pas très clair et bien sur, jamais complètes. Voilà pourquoi il faut observer, tester, analyser, discuter, réfléchir, comploter, ignorer, en un mot ce débrouiller.

Pour en revenir au pingouin, voici en une courte liste, sans entrer dans le détails car ce n'est pas le sujet de l'article, de ce qu'il cherche à détecter :

  • Ancres identiques venant de liens externes.
  • Liens externes sur-optimisés venant de pages hors thématique.
  • Liens issus de zones "pauvres" (footer, signature forum, com' de blog.
  • Liens issus de sites considérés comme "mauvais" par Google.
  • Liens issus de sites en langues différentes.

En d'autre termes, Pingouin cherche à analyser la pertinence des backlink d'un site, mais pas que... Dans une moindre mesures, l'algo semble également vérifier la sur-optimisation du linking interne tout comme les expressions utilisées dans les balises ou le contenu.

Voilà donc rapidement ce que fait Pingouin.

Désavouer des liens

Depuis fin 2011, Google à mis en place une alerte via les GWT pour informer les webmasters sur les possibles backlink "artificiels" liant leur site. Entendons par là, artificiel, en grand nombre, sur optimisé et/ou venant de domaines mal perçus. Fin 2012, un outil pour désavouer des liens a été mis en place relançant de plus belle la légende du negative SEO (on en reparlera dans un prochain billet).

Il me parait primordiale de rappeler quelques bases dans la manière qu'à Google d'appréhender les BL et de travailler en général.

  1. Google sait depuis longtemps ignorer des liens ou ne leur donner qu'un très faible poids en fonction de différents critères.
  2. Google détecte depuis longtemps les tentatives de positionnement artificiel.
  3. Google a les moyens de savoir si les visiteurs issu d'un requêtes spécifiques dans ses SERPs sont qualifiés et/ou intéressés.
  4. Google, de part l'ensemble des connaissance qu'il détient grâce à son espionnage de l'ensemble de la toile, n'a pas besoin d'aide extérieur pour faire le ménage.
  5. Google se moque de l'avis de l'expert SEO du site à mamie, puisqu'il sait s'entourer d'experts compétents et reconnus.

La question n'est donc pas de savoir comment utiliser l'outil de désaveu de liens mais pourquoi ne pas s'en servir.

Le negative SEO n'existe pas.

Ca va en faire râler plus d'un, mais il n'existe aujourd'hui aucune "preuve" à analyser. Il n'y a donc pas lieu de paniquer et d'aller désavouer des milliers de liens, si pourri soient-ils, pour tenter de sauver son site.

Matt Cutts en parle brièvement de la manière suivante "Le nSEO pourrait arriver dans des cas extrêmement rares". Du super conditionnel. On croirait revenu le bon temps des blagues de Coluche... En gros, pas de crainte Matt Cutts est juste en train de publier, à priori, une lettre d'excuse pour ce couvrir au cas ou un petit malin arriverait par des moyens détournés à faire chuter volontairement un site dans un avenir plus ou moins proche. Dans aucun cas Matt Cutts ou qui que ce soit chez Google n'a apporté la moindre preuve à ce nSEO.

Sur le Web, lorsque Pingouin a débarqué, un certain nombre de webmasters ont mis l'accent sur le possible nSEO, hélas, chaque fois, la réalité a été tout autre. Jamais un site n'a été "coulé" par nSEO. Par contre beaucoup ont gouté au mSEO (madSEO).

Les liens issus de mauvais sites

Faudrait déjà définir ce qu'est un mauvais site... Bref, on va résumé par les liens issus de toutes les bouses inutiles qui fourmillent sur la toile et qui se remplissent automatiquement via le scraping ou la pseudo analyse SEO/WhoIs.

Google sait accorder un indice de qualité à un site, je n'entend pas par là qu'il sait analyser le fond d'un contenu pour définir si oui ou non il est meilleur qu'un autre, mais il sait reconnaitre un site qui fournit un contenu intéressant, pertinent, unique, etc... De là, il sait donc reconnaitre les liens issus de ce type de site, les ignorer ou leur donner bien moins d'importance.

Inutile donc de foncer sur l'outil pour passer des heures entières à désavouer ces sites, qui en plus changent de domaine régulièrement et recommencent leur moulinette.

Les liens multiple issus d'un même domaine

Tout le monde à vu un jour son nombre de lien monter en flèche sans aucune raison spéciale, simplement parce qu'à la suite d'un article intéressant quelques internautes l'on relayé... sur leur blog ou parce qu'un partenariat peu inspiré a aboutit à la mise en place d'un lien dans le footer d'un site.

Depuis toujours, ou presque, l’algorithme de positionnement de Google sait laisser de coté ses milliers de liens identiques pour n'en prendre en compte qu'un seul. C'est une chose observé et prouvé. Pourquoi donc aller une fois de plus tenter un désaveu pour ce type de lien ?

Le linking hors thématique

Un site lié depuis un contenu hors thématique, ou "étranger", n'a, à la base, rien à craindre, tout au plus, comme d'habitude, Google ignorera le BL ou diminuera son impact. Ce qui pourrait devenir gênant est un afflue important de ce type de lien, non parce qu'il aboutirait à une pénalité pour le site, mais parce que Google aurait plus de mal à définir la thématique du dit site et donc sa pertinence pour telle ou telle expression clé. De la même manière, un rapport de liens "théma" vs "hors théma" majoritaire pour ces derniers pourrait avoir les mêmes conséquences.

Encore une fois ne vous jetez pas sur l'outil de désaveu. Ces liens ne sont pas obligatoirement de mauvaise qualité, seulement moins pertinent. Travaillez à la réalisation de BL plus thématisé et votre site se repositionnera. Dans tous les cas la suppression de ses liens n'améliorera pas votre référencement, au contraire.

Les liens avec ancres identiques

Voilà ici, peut-être le premier vrai problème sur lequel il faut se pencher plus sérieusement. Google n'est pas idiot, il sait très bien qu'un nombre élevé de BL avec ancres identiques est une preuve de linking artificiel. C'est certainement le premier facteur pris en compte par Pingouin et celui qui fait le plus de mal.

Tout le monde y est passé. Le linking de masse pour booster son site sur une expression clé spécifique. Et même si depuis un moment les spécialistes recommande la variation des ancres, le mal était déjà fait. Beaucoup de sites possèdent une multitude de BL identique et très peu de ceux-ci sont facilement modifiable.

Eh bien non, là encore, on évite d'utiliser l'outil de désaveu. Le premier travail va consister à repérer ses BL, à les analyser pour reconnaitre les plus importants et de tout tenter pour faire modifier l'ancre. Le second travail va consister à un afflue maitrisé et progressif de nouveau BL avec ancres différentes pour diluer la proportion des premiers. Evidement, plus la proportion d'ancre identique sera élevé, plus le travail sera long.

Alors pourquoi ne pas passer par l'outil ? Parce que si cette proportion d'ancre identique est élevé et que vous la désavoué, votre site ne remontera de toute façon pas dans les SERPs sans une nouvelle compagne de linking. Par contre, en les laissant, vous bénéficierait de leur poids une fois la dilution effectuée.

A quoi sert l'outil de désaveu de lien de Google ?

Il ne sert en aucune manière à vous aider dans le positionnement de votre site. Par contre, c'est :

  • Un outil indispensable pour déterminer avec encore plus de précision les webmasters qui travaillent le référencement artificiel.
  • Un outil malsain qui remet au goût du jour la délation.
  • Un outil qui peut amener du nSEO, non pas via un comportement volontaire de la part d'un concurrent, mais par l'action répéter de désaveu souvent injustifiés.

Maj du 03/09/13

Google donne des informations dans les GWT sur les possibles sanctions manuelles. Un webmaster, a reçu il y a quelques jours ce message :

Nous avons détecté un système de liens artificiels redirigeant vers votre site. L'achat de liens ou la participation à des systèmes de liens dans le but de manipuler le classement PageRank constitue une infraction aux Consignes aux webmasters de Google. En conséquence, nous avons appliqué une action manuelle pour cause de spam à URL du site. D'autres actions peuvent être appliquées à l'ensemble ou à certaines parties de votre site.

On pourrait penser que le nSEO est finalement possible. Il faut raison et logique garder. Il n'est en aucun cas ici preuve d'une quelconque sanction pour afflue massif de liens de mauvaises qualités. Il est préférable de s'orienter vers l'achat de liens repéré par Google ou une tentative abusive et visible de manipulation des SERPs via une stratégie "anormale" de netlinking.

Evidement, dans ces 2 cas, la première choses et de faire supprimer l'ensemble de ses liens qui généralement ne sont pas issu d'un tiers mal intentionné mais belle est bien du référenceur lui-même. Leur suppression est donc logiquement faisable et donc il est aisé et plus sur de ne pas avoir recours à l'outil de désaveu de lien.


Vos avis

N'oubliez pas de noter l'article. ;-)

Message
Expéditeur et validation
Bonjour,

Si je suis d'accord sur le fond, c'est à dire n'utiliser l'outil de désaveu qu'en dernier recours, je suis pas d'accord avec le fait que le nSEO soit un mythe.

Si un nouveau concurrent débarque, je lui envoi 10000 liens bien mauvais et son site coule direct.
Slt,

Oui, c'est vrai, et ça existe depuis de longues années.
Tout nouveau site qui se prend trop rapidement un grand nombre de lien, va plonger, mais pour cela faut-il qu'il se soit positionner correctement sur une requête, ce qui, pour un site tout jeune et bien rare à part sur une niche non exploitée.
Et pour tenter un coup de nSEO sur ce nouveau site, faut-il encore le connaitre.

Y a pas beaucoup de boites qui observent le web pour trouver de possibles nouveaux concurrents.

Alors, oui, dans l'absolue ça ressemble à du nSEO, mais dans une situation vraiment spécifique (un nouveau site) et rare (un nouveau site qui s'est bien positionné).

On en revient à ce que j'écris au début de l'article.
Un cas exceptionnel, qui n'en fait pas une généralité et encore moins une preuve tangible que le nSEO existe et dont Matt Cutts évoque la possibilité plus pour se dédouaner que pour informer.
Slt,
Un article hors des chemins battus et ayant au moins le courage de poser clairement des questions sur la véritable volonté de Google dans la mise en place de ces nombreux outils pour soit-disant "aider" le webmaster.

Pas encore dans le conspirationnisme, mais on s'y approche avec au moins l'avantage, sur d'autres thèmes, qu'il n'y a ici aucune preuve quelque que soit le coté que l'on regarde.

Ca permet de débattre tout azimut sans se fourvoyer... :-)
La loi du 12e homme. ;-)

Lorsque tout le monde va dans un sens le devoir du dernier et d'aller à contre courant.
Je trouve que parler de délation est vraiment exagéré, c'est par contre beaucoup plus juste pour l'outil de dénonciation de sites.
Il s'agit plutôt de protection !

Et en ce qui concerne la dilution des ancres, pas facile s'il s'agit d'un afflux massif. Je n'ai pas eu ce problème étant donné le peu d'importance de mes sites, mais je comprends la panique de ceux qui sont touchés...
Le travail de dilution des ancres est surtout destiner à des sites récents ou n'ayant que peu travailler leur netlinking.

Les sites à autorité "élevé" n'ont même pas à s'y intéresser de par la qualité ultra médiocre de ces types de liens et de leur nombre de BL faisant contre poids.

GG a toujours communiqué qu'il savait donner du poids à un lien et donc définir si celui-ci était de qualité ou non.
De là, quel intérêt de désavouer ?

Il reste donc, la théorie "complotiste" spécifiant que c'est un moyen détourné pour GG d'en savoir encore un peu plus sur les webmasters et les sites.
Et donc l'outil devient clairement un instrument de délation.
L'outil de désaveu de liens est selon mon humble avis un moyen pour google de vous tirer une balle directement dans le pied en avouant finalement de son plein grès: oui j'ai des mauvais liens, donc vous le savez? pourquoi avoir attendu la sanction pour les retirer?

Pour le NSEO je peux vous assurer que çà fonctionne, comme le souligne Thierry, sur des domaines neufs avec des mots clefs concurrentiels. J'ai récemment descendu un concurrent en moins d'une semaine.
Comme je lui disais (à Thierry), le nSEO sur du domaine "neuf" n'a rien d'extraordinaire vu le nombre de facteurs de surveillance qu'il se prend dés son arrivée sur la toile.

Un afflux de mauvais BL et hop, une bonne grosse et longue sandbox.

Mais faut-il encore les trouver ces nouveaux arrivant...
Moi, perso, je ne perd pas de temps à scruter la toile pour connaitre les newb qui pourraient, un jour, éventuellement, peut-être, me concurrencer, moi ou un client.
Souvent, les attaques nSEO ratent parce que la majorité des liens blastés sont en nofollow.

Et puis, les BH préféreront garder leur liste de sites "clean" (le moins d'outbound links possibles) pour renforcer leurs propres sites en Tier 2.
Faut aussi mettre dans la balance que, tout comme un acte de référencement mal fait peut ne pas être pris en compte par Google, voir, dans des cas extrêmes pénalisé, un acte de nSEO pourrait conduire à l'effet inverse de celui voulu initialement.

Dans tous les cas, le nSEO facile sur un nouveau site ne sert à rien, vu qu'il n'est pas un concurrent direct et les concurrents directs sont bien plus difficile à déloger par cette méthode.

Le nSEO, même s'il peut être possible, et une énorme perte de temps.
Dans l'ensemble je trouve l'analyse assez juste, le seul bémol serai le NSEO.
Le fait de n'avoir aucune "preuve" que le NSEO à un impact sur un site n'est pas une garantie de son inefficacité.

Y'a qu'a voir les campagnes de SPAM(sur les wordpress par exemple, j'ai en moyenne une vingtaines de commentaires en spam par jour) c'est assez flagrant et les Webmasters qui passent par ses services sont forcement pénalisé par ce type de campagne.

Pourquoi un Webmaster n'utiliserai pas ce type de service pour plomber son concurrent ?
Dans l'absolu le nSEO existe depuis toujours et de différentes manières.

Celui que tu évoques, existe depuis que GG prend en compte la pertinence du contenu, c'est à dire des années.
Depuis toujours il est indispensable de modérer correctement un contenu "social".
Une page spammé a toujours été rétrogradée (plus ou moins rapidement et/ou sévèrement).

Le nSEO tel que je l'évoque et celui qui rend parano un max de webmasters aujourd'hui.
Il tente d'affecter un site depuis l'extérieur via des liens "pourris", massifs, rapides, sur-optimisés, etc.

Concernant les preuves...
Il n'y en a pas... et comme tu le fais remarqué, dans les deux sens.

Je constate juste que sur certains sites que je gère, des attaque nSEO on eu lieu, avec pour certains un total aujourd'hui de +90% de BL nSEO, ils n'ont pas bronché, mieux, l'un d'entre eux a gagner 2/3 positions sur certaines expression ciblés.
Bonjour
En contrôlant mes backlinks avec Open Site Explorer je me suis aperçu que j avais des liens morts( Blog ou annuaire Hs ) faut t il désavouer ces liens ?.
Qu'entend tu par lien mort ?

Des liens extérieurs qui pointent vers des pages de ton site qui n'existent plus ?

Si c'est le cas, les liens "intéressant" issus de contenu pertinent tu les rediriges sur des pages de ton site, en relation.
Les autres tu les ignores.

Je n'ai toujours pas utiliser l’outil de désaveux et je n'ai jamais eu de soucis.
Et, et ça fera certainement l'objet d'un article dés que j'aurais du temps, 2 sites que je gère ont subit une grosse attaque de NSEO et y ont gagné des places.

Pas de temps à perdre à faire le travail de nettoyage de Google.
Bonjour a tous.
C'est pas nouveau sa. En tous cas très bon article.
Merci