Vous souhaitez que votre article soit le mieux référencé possible ? Quoi de plus naturel me direz-vous. Il y a cependant quelques règles à respecter si l’on souhaite gravir les sommets de la SERP, sous peine de sanction. Celles-ci ont été établies par Penguin, un des filtres principaux de l’algorithme Google. Son rôle est de lutter contre les techniques de référencement abusif qui nuisent à l’expérience utilisateur. Entre déclassements et déréférencements complets de sites, le moins que l’on puisse dire, c’est que le lancement de cette mise à jour ne s’est pas fait sans conséquence. Vous allez voir ici en détail le fonctionnement de Penguin et ses enjeux, ce qu’il faut et ne faut pas faire ou comment être dans les clous tout en restant compétitif.

Penguin : chien de garde du référencement

Un Panda pour équipier

Pour comprendre en détail Penguin, il vous faut d’abord connaître Panda. Il s’agit d’un filtre algorithmique développé par Google. Il fut introduit le 24 février 2011. Son but est de lutter contre les contenus de mauvaise qualité et de faire la chasse aux pratiques black hat. Ce terme désigne l’ensemble des procédés visant à tromper délibérément l’algorithme Google afin de faire ranker des pages web non légitimes. Voici ceux pour lesquels Panda a été programmé :

  • Les fermes de contenus ou « contents farms » : il s’agit de sites publiant du contenu de manière industrielle afin de gagner en visibilité. Ils utilisent pour cela des mots-clés populaires. Le résultat se résume à des pages de piètre qualité, voire sans rapport avec la requête d’origine, avec de nombreuses publicités.
  • Le duplicate content : cela consiste à copier-coller un contenu issu d’un autre site. Il s’agit tout bonnement de plagiat. Il n’est pas non plus toléré en interne entre pages d’un même site.
  • Le spamming : ce procédé vise à dupliquer abondamment le même contenu sur plusieurs sites à la fois. Des bots sont généralement requis pour effectuer cette tâche.
  • Le content spinning : C’est une subtile alternative au duplicate content. La technique consiste à reprendre un contenu déjà existant en reformulant seulement certaines expressions ou mots à l’aide d’un logiciel. 

Lorsque Panda débusque un fraudeur, il ne manque pas de le punir. La sanction est cependant graduelle. Elle peut aller du simple déclassement au blacklisting. Cette dernière option revient à retirer la page fautive ou le site entier de la SERP.

Panda a intégré le cœur de l’algorithme de Google depuis mars 2013. Ses mises à jour sont depuis effectuées en temps réel.

À lire également : mise à jour Panda.

À quoi sert Penguin ?

Nouveau filtre venant complémenter l’utilisation de Panda, Penguin est introduit le 24 avril 2012. Il fait également partie intégrante de l’algorithme de Google. Alors que Panda traque surtout de manière directe les sites et pages non pertinents (dupliqués, fermes de contenus et spams), Penguin lutte contre le référencement abusif et l’utilisation malhonnête des liens.

Cette pratique s’ajoute à la liste des procédés frauduleux (black hat). On parle alors souvent de référencement artificiel, qui usant de combines, s’oppose au référencement naturel (white hat). Ce dernier respecte la réglementation de Google sur l’indexation et le référencement.

Parmi ces combines se trouve le backlinking abusif, soit l’usage excessif d’ancres de liens. En plus de polluer la page, ils mènent généralement vers des sites de mauvaise qualité ou hors sujets. On retrouve également la technique du PBN (Personal Blog Network). Elle consiste à créer de manière automatique des blogs dont l’unique fonction est de rediriger les internautes vers un seul et même site. Le cloaking vient également s’ajouter à cette liste. Ce procédé revient à soumettre à l’algorithme une page trompeuse à double facette. Alors que les Google bots perçoivent son contenu comme étant propre et pertinent, l’internaute accèdera à sa face cachée : une page sans rapport avec la requête d’origine et contenant de la publicité.

Bien que Google luttait déjà contre le cloaking, Penguin vient définitivement enfoncer le clou. On compte enfin le keyword stuffing qui, comme son nom l’indique, repose sur le bourrage de mots-clés dans un texte. Le but est de capter davantage l’attention du moteur de recherche.

Ainsi, Penguin est suffisamment perfectionné pour détecter toutes ces stratégies non naturelles et ignorer leurs backlinks. Les pages incriminées se voient alors dévaluées, laissant place aux contenus les plus pertinents et loyaux. 

La mise à jour Penguin : évolutions et sanctions    

Google Penguin : quelles sont les sanctions ? 

Entre son lancement en 2012 et sa fusion à l’algorithme en 2016, le filtre de Google aura connu plusieurs mises à jour. Certaines furent mineures et d’autres ont incarné un vrai tournant. Les premiers rafraîchissements étaient effectivement timides. Ils étaient souvent le fruit d’actualisations de données et de légers ajustements. La priorité des développeurs à ce moment était d’étendre Penguin du Web anglo-saxon à l’échelle mondiale. Il faut également prendre en compte le fait que Google ne communique que très peu concernant certaines mises à jour. Prudente, l’entreprise américaine aime entretenir le secret autour de son algorithme.

Voici donc les mises à jour principales de Penguin : 

  • La 4e, qui est apparue le 23/05/2013 :  la sanction s’étend aux sites qui spamment. Les contenus de toutes les langues disponibles sur Google sont dorénavant concernés. 
  • La 6e, qui fut lancée entre le 17/10/2014 et le 22/12/2014 : les sites usant de liens entrants artificiels sont déclassés. C’est la première des mises à jour à être étendue sur plusieurs semaines.
  • La 7e, s’étalant du 23/09/2016 au 27/12/2016 : les mauvais liens sont dévalués de manière isolée sans pour autant pénaliser l’ensemble du site. Il s’agit surtout de la dernière mise à jour Penguin avant d’intégrer pleinement l’algorithme de Google. Ainsi fait, Penguin fonctionne désormais en temps réel et ses données sont rafraîchies de manière continue. 

Comment éviter ou sortir d’une pénalité Penguin ? 

Vous l’aurez compris, Google Penguin a l’œil pour reconnaître les tricheurs. Pour éviter de voir votre site rétrogradé, mieux vaut donc être en conformité avec l’algorithme plutôt que d’espérer passer sous les radars. C’est la raison pour laquelle il faut s’employer à utiliser uniquement des techniques propres, naturelles (white hat).

Lorsque vous souhaitez obtenir du trafic, la solution est d’attirer des backlinks vers votre site. Il faut pour cela créer du contenu qualitatif et attendre que les liens apparaissent naturellement. Vous pouvez faire le parallèle avec le cultivateur qui sème, puis attend le moment de la récolte. Bien sûr, cela peut prendre du temps. Surtout si vous venez tout juste de lancer votre site web. Il s’agit cependant d’une technique fiable et réglementaire. Gardez à l’esprit que même si les liens sont peu nombreux au départ, mieux vaut privilégier la qualité à la quantité. Les liens non pertinents vous desserviront toujours sur le long terme, car ils mèneront tôt ou tard à un déclassement. Il faut donc pouvoir proposer un contenu pertinent, qui répond aux attentes de l’internaute et si possible original. Toutefois, cela requiert des qualités rédactionnelles et des connaissances dans le domaine du référencement. C’est la raison pour laquelle il est conseillé de faire appel à des rédacteurs web SEO dont c’est le métier.  

Dans le cas où vous auriez déjà succombé aux sirènes du référencement abusif : le déclassement s’effectue automatiquement sans avertissement ni préavis. Il est donc possible que  Penguin vous ait épinglé sans que vous le sachiez. Rechercher votre site via un autre moteur de recherche que Google (Bing, Yahoo..) peut vous donner des indices. Par exemple : un déclassement assez brusque. Si effectivement tel est le cas, rien n’est perdu. Il n’est pas encore trop tard pour vous racheter une conduite et remonter dans le classement. Il va falloir cependant montrer patte blanche. Vous pouvez déjà commencer par faire le ménage parmi tous les liens externes de votre site. Enlevez ceux qui rankent sur les mêmes mots-clés ainsi que ceux qui sont sans rapport direct avec le site en question : leur présence doit répondre à une logique. Cependant, désavouer un lien n’est possible que lorsque celui-ci est de notre fait. Le point positif est que depuis l’intégration de Penguin à l’algorithme, les données sont rafraîchies de manière continue. Ce qui signifie qu’il n’est plus nécessaire de patienter jusqu’à la prochaine mise à jour pour sortir d’une pénalité. Tout cela requiert du savoir-faire. S’en remettre à un rédacteur web SEO est une très bonne solution.

En définitive…

Penguin a véritablement marqué un tournant dans le domaine du SEO. Comme Panda, c’est un organe de tri principal de l’algorithme Google. En filtrant prioritairement les liens inappropriés, Penguin permet aux sites qui respectent les réglementations Google d’être référencés à leur juste valeur. Au-delà de ça, la mise à jour Penguin est un message fort envoyé à tous les webmasters. En particulier ceux qui seraient tentés d’emprunter des raccourcis via les techniques black hat. Ils doivent comprendre que ce genre de stratégie n’est pas payant sur le long terme. Dans un souci constant de fournir la meilleure expérience utilisateur, Google trouvera tôt ou tard le moyen d’en venir à bout. Le plus efficace reste encore de créer du contenu unique et utile, en un mot : pertinent. Cela amènera naturellement des liens de qualité vers le site, et ce, notamment en faisant appel à des professionnels de la rédaction. Sur la plateforme de la LRDW, vous pouvez constituer votre équipe de rédacteurs web SEO.

%d blogueurs aiment cette page :