On parle souvent des algorithmes Panda, Penguin et Hummingbird de Google qui influence le classement des sites dans le moteur de recherche. Que faut-il savoir à leur sujet ?
À l’image de l’impatience de voir arriver Penguin 4.0, la communauté des webmasters est très au fait des algorithmes de Google, qu’il s’agisse de Penguin, mais aussi de Panda et Hummingbird. En fait, il ne s’agit pas de plusieurs algorithmes distincts, mais de différentes parties de l’algorithme qui influence le classement des sites dans les résultats du moteur de recherche de Google.
Si toutes les personnes concernées par la publication sur Internet se préoccupent de Panda, Penguin et Hummingbird, c’est bien évidemment dans le but que leurs sites apparaissent le plus haut possible dans les résultats de recherche, ce qui est une garantie de visibilité, donc plus de revenus. Justement, que faut-il savoir au sujet de ces différentes parties de l’algorithme de Google ?
Google Panda
Panda est la partie de l’algorithme qui s’attache à la qualité d’un contenu. Il influence négativement la note d’un site si son contenu est de mauvaise qualité, augmentant sa réputation en cas de contenu de qualité supérieure.
Cette partie de l’algorithme de Google cible plus particulièrement les sites qui publient de la quantité au détriment de la qualité.
À l’origine, Panda était un algorithme à part qui avait droit à des mises à jour à des dates connues, ce qui rendait plus facile l’identification du moment où un site est victime de l’algorithme, respectivement le moment où il est possible de remonter sa réputation. Désormais, il fait partie de l’algorithme de base et est régulièrement, mais lentement, mis à jour. De fait, il n’est plus véritablement possible de savoir quand Panda pénalise/favorise un site pour la mauvaise/bonne qualité de son contenu.
Il est important de noter que Panda ne se base pas seulement sur le contenu publié par l’auteur d’une page, mais aussi sur les contenus annexes générés par des utilisateurs tiers, comme la qualité des messages publiés sur les forums (par exemple si ce sont des spams). Cela ne signifie pas non plus qu’il faut éliminer tous ces contenus négatifs, des commentaires qui apportent tout de même une certaine notoriété au site.
Des articles d’une taille minimum de 250 ou 350 mots ?
Il est habituel de prétendre que Panda apprécie les articles qui font plus de 250 ou 350 mots de longs. C’est pour cette raison que de nombreux sites refusent de publier des articles plus courts. C’est une approche qui est totalement erronée.
L’algorithme de Google ne se base pas sur le nombre de mots d’un article, mais sur le nombre de mots « utiles » pour qu’un contenu soit réussi. Par exemple, de nombreuses pages contiennent nettement moins que 250 mots sans qu’elles soient pénalisées par Panda, simplement du fait que le contenu proposé est perçu comme optimal. De fait, c’est le fait d’allonger artificiellement un article pour ne rien ajouter de plus comme information qui risque de le pénaliser, même s’il dépasse les 350 mots.
Un des secrets de Panda est que le contenu doit correspondre à la requête. L’important pour les webmasters est que les contenus proposés correspondent aux requêtes de recherche des utilisateurs. Si vous constatez que Google envoie du trafic vers votre page avec des requêtes spécifiques, il faut s’assurer que la page en question réponde bien à la question. Dans le cas contraire, il suffit simplement d’ajouter un paragraphe ou deux pour cibler la requête. Cet aspect est très important car Google apprécie les pages qui répondent aux questions ou aux questions implicites en leur procurant un bon classement.
Il est aussi important de noter que les techniques de SEO ne jouent aucun rôle pour Panda. L’algorithme se contente en effet d’analyser le contenu, et non pas l’utilisation correcte des balises (H1…) ou la vitesse de chargement d’une page. Cela ne signifie pas que ces points doivent être ignorés, mais simplement que Panda ne s’en préoccupe pas.
Comment connaitre la qualité d’une page ?
En sachant tout cela sur Panda, la question qui se pose est de savoir comment déterminer la qualité d’une page. Si vous découvrez dans Google Analytics que Google vous envoie du trafic, cela signifie que le contenu est de qualité. Le cas contraire ne signifie pas pour autant que le contenu est de mauvaise qualité.
Dans ce cas, il faut étudier le contenu plus en détail. Est-ce que son contenu est trop récent pour avoir du trafic, est-ce que le titre correspond au contenu, est-ce que tout le contenu concerne le même sujet ? Il faut trouver des points d’amélioration pour éviter que Panda ne jette l’article en question à la poubelle. En agissant de la sorte, il faut aussi garder à l’esprit que d’autres moteurs de recherche (Bing, Baidu…) vous envoient du trafic, ainsi que les réseaux sociaux. Améliorer d’un côté peut nuire de l’autre, il s’agit donc de trouver un équilibre.
Google Penguin
À la différence de Panda qui s’attache à la qualité du contenu, Penguin se focalise uniquement sur la qualité des liens, et rien d’autre. De fait, les sites qui ont acheté des liens de faible qualité pour faire monter artificiellement leur classement sont visés par Penguin.
À moins d’avoir utilisé ce genre de technique pour améliorer le classement de son site, les webmasters n’ont normalement pas à s’inquiéter de Penguin. C’est pour cette raison qu’il est aussi important de bien se renseigner avant de mandater une entreprise de SEO, pour ne pas qu’elle utilise des techniques dépassées qui seraient au final nuisibles pour votre site.
Même si demander aux visiteurs de son site de poster des messages avec des liens vers votre site était une technique acceptée dans le passé, cette manière de faire n’est plus bien vue par Google. Ce n’est pas interdit, c’est juste que la source doit être bien choisie du point de vue de la qualité.
C’est pour cette raison qu’il est important pour un webmaster d’éliminer les liens de mauvaise qualité pointant vers son site. Cette opération peut être faite via la Google Search Console. Il est à noter que Google ne se préoccupe que des liens entrants, pas des sortants.
En cas de suspicion d’un impact négatif de Penguin sur votre site, il est nécessaire de procéder à un audit des liens et de supprimer ou désavouer les liens de faible qualité de type spam. Google Search Console inclut une liste des backlinks. Il faut savoir que lien marqué comme « nofollow » n’a plus aucun impact sur votre site. Il existe des outils tiers pour montrer ses liens, mais comme de nombreux sites bloquent ces robots, l’efficacité de ses outils n’est pas toujours optimale.
Comment connaitre la qualité d’un lien ?
Évaluer la qualité d’un lien n’est pas une opération simple. Ce n’est par exemple pas parce qu’un lien provient d’un domaine .edu qu’il est de haute qualité simplement parce qu’il existe de nombreux étudiants qui vendent des liens depuis leurs sites personnels, des liens depuis des domaines .edu qui sont très souvent désavoués. De même, il existe beaucoup de sites piratés au sein avec un nom de domaine.edu qui possèdent des liens de faible qualité. La qualité d’un lien ne s’appuie pas que sur le domaine.
Être ou ne pas être sur un TLD ou ccTLD spécifique n’aide en rien, c’est Google qui le dit. Aussi sérieux que semble être le domaine .info, ce domaine est aussi à risque avec de nombreux spammeurs qui l’utilisent. Le secret est que chaque lien doit être évalué individuellement !
Soyez aussi prudent. Ce n’est pas parce qu’un lien vers votre site provient du Huffington Post ou de la BBC qu’il est automatique de haute qualité aux yeux de Google. Beaucoup de ces sites vendent des liens, certains déguisés en publicité ou proposés par un contributeur malveillant.
Attention aussi aux liens promotionnels. Autorisés il y a quelques années, il faut qu’ils soient « nofollow » aujourd’hui pour ne pas risquer de pénaliser votre site. Ils ne favoriseront plus votre classement, mais continueront à aider à générer du trafic.
Suppression des liens
Pour supprimer un lien vers votre site, la première chose à faire est de contacter le site en question. Si cette démarche ne fonctionne pas, il faut passer par le fichier pour désavouer les liens qui sera soumis à Google. Il est à noter que la firme de Mountain View recommande de ne pas payer les sites qui réclament de l’argent pour supprimer un lien. Certains propriétaires de sites exigeront des frais, une pratique qui se généralise simplement du fait que certaines personnes y voient un moment simple pour se faire de l’argent.
Lorsque votre fichier est prêt, il suffit de le soumettre à Google pour que les liens soient désavoués. Le résultat est que les liens signalés ne causeront plus d’impact négatif sur le classement de votre site. Il faut faire attention à ne pas signaler des liens qui sont positifs pour le classement de votre site. C’est pour cette raison qu’une analyse méticuleuse de chaque lien est nécessaire.
Il est bon de souligner que le traitement des fichiers de liens à désavouer est automatique. Fournir d’autres informations que des liens est donc parfaitement inutile, car pas pris en compte. De fait, il est inutile d’indiquer quoi que ce soit de plus que les liens. Une fois envoyé, il sera traité immédiatement. Cela ne signifie pas pour autant que l’effet sera immédiat. Cela peut prendre six mois, ou plus, jusqu’à ce que tous les liens soient explorés et désavoués. Vous pouvez faire ce que vous voulez, il n’existe aucun moyen de déterminer quels liens ont été actualisés et quels sont ceux qui ne l’ont pas encore été.
Pour accélérer les choses, vous pouvez passer par le nom de domaine au lieu des liens individuels. Vous pouvez aussi éviter de perdre du temps à demander un réexamen du site, un processus qui nécessite beaucoup plus d’informations préalables sans garantie que le résultat soit meilleur au final.
Attention aux changements
Si vous changez votre nom de domaine ou si vous passez votre site en HTTPS, vous ne devez surtout pas oublier de télécharger à nouveau le fichier des liens désavoués dans Google Search Console, une opération que les webmasters oublient très souvent de faire. S’ils l’oublient, Penguin peut sévir même si le nettoyage avait été fait précédemment.
Il faut aussi être conscient que Penguin ne rendra pas rapidement la réputation à un site après que des corrections ont été apportées. Il faut lui laisser du temps. De plus, il n’est pas évident de percevoir l’importance d’un lien, qu’elle soit positive ou négative. Dès lors, estimer leur impact sur le classement est pratiquement impossible à prédire.
En matière de changement, tout le monde est impatient au sujet du déploiement de Penguin 4.0, une nouvelle version de l’algorithme qui apportera un changement notable avec des mises à jour en temps réel. En clair, il ne sera plus nécessaire d’attendre une mise à jour pour remonter dans les classements.
Google Hummingbird
Google Hummingbird a été le premier changement majeur apporté à l’algorithme de base. Son rôle est de donner un meilleur classement aux sites qui donnent les meilleurs résultats à des requêtes spécifiques. Pour remplir sa mission, l’algorithme est en mesure de comprendre les requêtes de recherche, mais aussi les contenus de haute qualité qui répondent à la requête recherchée par un utilisateur.
Le but de Hummingbird est de permettre au moteur de recherche de proposer des réponses précises à des questions précises. C’est pour cette raison que l’algorithme va privilégier des pages spécifiques plutôt qu’un site dans sa globalité.
Actuellement, Hummingbird évolue pour correspondre aux requêtes vocales. Pour satisfaire cette spécificité, il est important que vos contenus soient très lisibles, mais aussi qu’ils puissent correspondre à des questions de recherche plus longue, plus spécifiques.
Il est à noter que Google reste très discret au sujet des mises à jour de Hummingbird. De fait, on ne sait pas vraiment pas quand l’algorithme a été, ou sera mis à jour.