SEO – nouvel algorithme de Google sorti le 24 avril (nom de code Penguin)

Le nouvel algorithme de Google sorti le 24 avril (nom de code Penguin) vise à réduire le spamdexing (spam des moteurs de recherche) en pénalisant les sites ne respectant pas ses consignes. Dans ce dossier, j’ai regroupé tous les critères (supposés) pris en compte par Google. A vous d’en tenir compte pour éviter de tomber sous l’effet de pénalités.

Généralités sur l’algorithme

Le Pingouin Google

   

L’algorithme Google Penguin

Avertissement préalable

Tout d’abord, je préfère préciser que tout ce qui suit n’est que suppositions : Google n’a pas fourni la liste des critères (signals) utilisés par son manchot (oui, Penguin signifie manchot et non pas pingouin). Ces hypothèses n’engagent donc que moi et ne sont que des hypothèses. Néanmoins j’ai pris le temps de la réflexion et de l’analyse pour vous fournir cette première synthèse, qui sera mise à jour à chaque fois que ce sera nécessaire. Je me base sur :

 

    L’étude concrète de quelques dizaines de sites pour lesquels j’ai eu accès à suffisamment d’informations de nombreux échanges avec d’autres webmasters et référenceurs, en public sur le forum mais surtout en privé mon expérience du référencement naturel depuis 1997 (ça ne me rajeunit pas !)  La lecture de nombreux articles Je compte sur vous dans les commentaires pour me signaler mes éventuelles erreurs ou imprécisions car je ne prétends pas détenir la vérité absolue, loin de là !

Fonctionnement global de Google Penguin

 

Google Penguin semble toucher les pages une par une et non le site globalement ou par grandes rubriques comme c’est le cas avec son collègue le panda. C’est plutôt une bonne nouvelle car votre site ne sera pas pénalisé dans son ensemble à cause d’erreurs ou de quelques écarts envers les consignes de Google.

 

Autre différence avec Panda, Penguin fait totalement partie de l’algorithme, ce n’est pas un filtre de plus :

    Avec Panda, Google ré-évalue tous les sites environ une fois par mois pour estimer s’ils remplissent ses exigences. Entre temps vous avez beau améliorer votre site il ne peut rien se passer.

    Avec Penguin, l’optimisation du référencement de votre site est analysé en permanence. Si vous corrigez suffisamment les critères pris en compte par Penguin, alors vous pouvez sortir de la pénalité immédiatement.

 

Globalement, cet update se base un peu sur des éléments internes du site et beaucoup sur les éléments externes (netlinking). D’après ce que j’ai pu analyser, une trop forte sur-optimisation interne entraine rarement des pénalités : c’est très souvent le netlinking sur-optimisé qui est la cause de la chute.

 

Les paragraphes suivants détaillent ces deux familles de critères ainsi que le rôle des réseaux sociaux dans Penguin.

Les critères on-site (ou on-page) : optimisation des contenus et du site

 

Les aspects onpage sont assez faibles dans Penguin mais il ne faut pas les négliger. C’est une sorte de facteur aggravant.

Inversement, les aspects sociaux semblent également minimes mais c’est une sorte de facteur qui atténue (j’y reviens plus loin ).

 

Voici d’après mes analyses actuelles les éléments négatifs internes au site pris en compte par Penguin.

Les titres

 

    des titres (balise title) créés pour être optimisés sur un nombre trop important d’expressions-clés. Il s’agit de titres constitués d’une série de mots-clés ou de plusieurs séries d’expressions-clés, ne donnant pas assez envie à l’internaute de cliquer.

    une répétition systématique du ou des mots-clés principaux de la page dans toutes les balises h1, h2, h3…

 

Le contenu (texte)

 

    un texte écrit avec l’idée que plus on répète les mots-clés, mieux c’est : ce qu’on appelle le keyword stuffing (bourrage de mots-clés). Ceux qui me lisent depuis longtemps savent que cette stratégie n’a jamais payé avec Google. Mieux vaut rédiger naturellement (en utilisant malgré tout quelques bonnes méthodes).

    des textes qui ne veulent même plus dire grand chose. Faites attention par exemple aux techniques de content spinning (à moins qu’il soit de très haute qualité, ce qui est rare, et encore je vous le déconseille sur votre propre site)

    des pages saturées de publicités au-dessus de la ligne de flottaison

 

Les liens situés sur le site (internes ou externes)

 

    trop de liens sortants vers des sites de mauvaise qualité (ou pire, pénalisés par Google)

    des liens internes utilisant tout le temps la même ancre (texte du lien), parfois répétés plusieurs fois dans une même page. C’est ce qu’on obtient en général quand on utilise des outils qui insèrent des liens automatiquement dans les contenus.

 

Complément

 

Comme vous pouvez le constater, aucun de ces critères n’est nouveau et la plupart sont largement sanctionnés par Panda depuis 2011.

 

Toujours à propos des aspects on-site, je pense pour l’instant que Google Penguin ne tient pas compte :

 

    des données whois (registrar) et globalement de tout ce qui peut être associé directement au webmaster. Mais sur ce point je suis preneur de retours d’expérience car je n’ai pas eu le temps de faire des tests approfondis

    du CMS utilisé (par exemple, WordPress n’est pas plus risqué qu’un autre système)

 

Que pensez-vous de ces critères ? Lesquels manquent ?

Les critères off-site (ou off-page) : netlinking

 

Voici d’après mes analyses actuelles les éléments négatifs externes au site pris en compte par Penguin. J’ai essayé de les classer en mettant en premier les critères a priori les plus importants.

Les ancres des backlinks

 

    trop de backlinks dont l’ancre (le texte de lien, anchor text) contient exactement (ou presque) la requête phare de la page de destination. Dans ce cas, la page ne sort plus dans Google pour cette(s) requête(s)

    trop de backlinks venant de commentaires ou signatures de forums avec soit un anchor text ultra optimisé, soit un pseudo pas trop optimisé mais sur un blog totalement hors thématique.

 

La qualité des sites backlinks

 

    trop de backlinks venant de pages hors thématique, ou de pages qui certes sont dans la thématique mais de façon isolée sur le site. Prenons le cas d’un site de CP : une page A est publiée, elle contient un lien vers une page B d’un autre site. Certes elle est dans la thématique de la page B, mais sur le site de CP elle semble isolée, peut-être la seule à aborder cette thématique (ce qui est assez étrange pour un site normal).

    trop de backlinks venant de sites de CP (communiqués de presse) de qualité moyenne ou faible. Je pense que les quelques cas rapportés de sites non pénalisés malgré des backlinks issus de CP correspondent aux cas où les sites de CP et les textes publiés sont de bonne qualité. Cela dit je pense qu’avec le temps Google réduira la puissance de linking pour la plupart des sites de CP (car le principe de ce type de site est de contourner l’algorithme de Google).

    les liens issus des annuaires ne semblent pas être visés même s’il y a pas mal d’exceptions. Sans doute que la notoriété de l’annuaire compte plus qu’avant. Il faut aussi noter que plusieurs vagues de pénalisation d’annuaires ont déjà eu lieu dans les années passées.

    trop de backlinks venant de sites rédigés dans une autre langue que le site qui les reçoit

 

Les liens achetés et les réseaux de sites backlinks

 

    backlinks achetés (on passe de côté la question Comment Google peut-il être certain qu’un lien a été acheté/vendu..)

    trop de backlinks issus de sites identifiés comme appartenant au même propriétaire et reliés entre eux par des liens (réseaux de sites trop visibles). L’adresse IP du serveur n’est pas du tout la seule à entrer en ligne de compte pour cette analyse.

    trop de backlinks basés sur un principe de linkweel

 

J’ai aussi d’autres idées qui sont pour l’instant plus hypothétiques donc encore en test dans mon “labo”.

Que pensez-vous de ces critères ? Lesquels manquent ?

Et le social dans tout ça ?

 

Pour l’instant je ne suis pas convaincu que les aspects sociaux jouent un rôle important dans l’algo du pingouin. Pour les aspects négatifs, peut-être n’ai-je pas eu l’occasion de tester des cas de spam évident via les réseaux sociaux. En fait je suis plutôt de ceux qui pensent que les réseaux sociaux jouent un rôle d’atténuation des sanctions. En gros, si vous avez des mauvais backlinks mais une excellente visibilité sur les réseaux sociaux, plein de partages, like et autres +1, alors vous pouvez espérer être épargné.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

* Copy This Password *

* Type Or Paste Password Here *