Je me suis rendu compte lors de mes rendez-vous clients, que certaines questions concernant les moteurs de recherche en général et les algorithmes Google en particulier ; revenaient de façon récurrente. Ceci m’a donc motivé à rédiger ce petit article qui propose une rapide synthèse et historique des principales mises à jour des algorithmes de Google (Panda, Pingouin, Colibri, Pigeon, Phantom …).
Sommaire
- Pas 1 mais une multitude d’algorithmes Google !
- Google Panda (2011)
- Google Pinguin (2012)
- Google Colibri – Hummingbird(2013)
- Google Pigeon (2014)
- Google Phantom (2015)
- RankBrain (2015)
- Mobile (2015)
- Medic (2018)
- Bert (2019)
- Page Experience / Core Web Vitals (2021)
- Les Core Updates (2019, 2020, 2021)
Pas 1 mais une multitude d’algorithmes Google !
Google est pour beaucoup le moteur de recherche par excellence. Une des raisons qui explique ce quasi-monopole est la pertinence de ses résultats. Pour arriver à trier avec succès des centaines de milliards de page web en un temps record, Google s’appuie sur toute une série d’algorithmes.
Afin de pourvoir des résultats toujours plus pertinents pour les utilisateurs du moteur et lutter contre le spam, la firme de Moutain View les met régulièrement à jour et en déploie de nouveaux. Comme vous pourrez le constater ci-après, chacun de ces modèles algorithmiques a un périmètre d’action bien défini : certains sont consacrés à l’analyse des requêtes tapées par les internautes, d’autres à l’analyse des pratiques abusives de certains professionnels du référencement (liens non conformes aux consignes pour les webmasters, publicité intrusive, pages satellites, spam..).
Il en existe aujourd’hui environ une trentaine. Tous n’ont cependant pas la même importance et chacun d’eux intervient sur une thématique très précise. Chaque algo Google aura sa propre influence.
Comment savoir si mon site est pénalisé par la mise à jour ou l’arrivée de l’un d’entre eux ? C’est ce que nous allons voir maintenant.
Google Panda (2011) :
Google Panda est un algorithme d’analyse qui se focalise sur le contenu, sa qualité et sa pertinence en particulier. Est-ce que le contenu du site est unique ou pas (duplicate content), est-ce qu’il est pertinent par rapport à un mot clé recherché ?
Dans le cas où sa pertinence est évaluée comme bonne, le site remontera dans les résultats des moteurs de recherche (SERP). Dans le cas contraire, il sera renvoyé à la fin des SERP. Une manière d’encourager les webmasters à fournir du contenu plus qualitatif. On parle alors de « filtre algorithmique ».
D’après Google, la mise à jour de l’algorithme aurait impacté 6 à 9% des résultats dans tous les langues (sauf anglais). A noter que l’impact porte sur l’ensemble du site ou une portion et que Panda a connu des « updates » jusqu’en 2017 et son intégration dans le « core algorithm » de Google.
En résumé, les critères évalués par Google Panda sont :
- Qualité du contenu : proportion importante de contenu dupliqué au sein du site, trop grand nombre de pubs, mots clés répétés trop fréquemment de façon non naturelle (suroptimisation)
- Manque de pertinence pour l’utilisateur : taux de rebond élevé, temps de visite très court
- Architecture claire
Google Pinguin (2012)
Pingouin est un algorithme Google qui a vu le jour en 2012. Son rôle est de contrôler la popularité d’un site Internet, à savoir la qualité de ses backlinks ou liens entrants. L’algorithme pourra donc pénaliser les sites Internet qui essayent de détourner les règles de référencement pour obtenir une meilleure visibilité. En suroptimisant leurs pages par exemple.
On peut constater une suroptimisation lorsque certains sites abusent du netlinking. Le netlinking est une technique qui consiste à poster des liens pointant vers son propre site sur des sites Internet tierces (forums, blogs, communiqués de presse …) dans le but d’obtenir un maximum de liens entrants.
Google impose certains quotas et en abusant de cette technique sur des pages identiques l’algorithme Google Pingouin va estimer que les backlinks ou liens entrants sont de piètre qualité voir inappropriés et va de lui-même rétrograder le site dans les SERP.
En résumé, les critères pour Pingouin sont :
- Pénaliser les backlinks ou liens entrants jugés artificiels ou de mauvaise qualité
Google Colibri – Hummingbird (2013)
L’algorithme Google Colibri présenté en 2013 par Google met en avant la recherche sémantique. L’objectif de la recherche sémantique est d’améliorer la précision du résultat de recherche en essayant de définir le contexte de la recherche effectuée.
Prenons par exemple une requête du type « Payer ses factures Free » qui faisait précédemment apparaître la page d’accueil de Free. L’algorithme Colibri ou Hummingbird va désormais privilégier la page dédiée à la régularisation de facture sur le site de Free.
Autre exemple, une requête du type « quel est l’endroit le plus proche pour acheter un iPhone 7 », Google pouvait trouver une page contenant en effet « acheter » et « iPhone 7 ». Mais désormais, Google Colobri ou Hummingbird analyse plus intelligemment la demande et comprend mieux ce que signifie « endroit ». Ainsi dans ce contexte, surtout si l’utilisateur a indiqué où il habitait, la page de recherche de Google affichera les magasins les plus proches.
Google Colibri analyse la requête dans son ensemble, plutôt que chaque mot individuellement.
En résumé, les critères pour Colibri sont :
- Intègre la notion de sémantique et de contexte de recherche
Google Pigeon (2014)
Malgré un nom qui n’a pas joué en sa faveur auprès de la communauté SEO lors de son déploiement en 2014, Pigeon, est cependant un des algorithmes Google le plus utiles pour le référencement local.
Cela peut concerner par exemple des marques qui disposent de chaînes de magasins, des hôtels et des restaurants, des entreprises locales …
L’algorithme Google Pigeon se base en grande partie sur l’adresse IP de l’Internaute qui effectue sa recherche, mais également sur son historique de navigation. Il se base également sur les expressions utilisées pour la recherche, et celles-ci contiennent un nom de lieu, de ville, une zone géographique qui lui permettra alors de ressortir les sites Internet liés à la zone en question.
En résumé, les critères pour Pigeon sont :
- Géo localise la recherche pour mettre en avant le référencement local
Google Phantom (2015)
Dès le moi de mai 2015, les référenceurs du monde entier constatent une forte volatilité dans les SERPs. Ces derniers remarquent des changements impactant le positionnement des sites de faible qualité et en l’absence de communication officielle, le nomment « Phantom ». Google confirmera plus tard qu’il s’agissait d’une mise à jour du cœur de son algo.
Comme Panda, cette update renommée « Quality », va analyser le contenu d’un site pour en déterminer sa qualité et sa pertinence.
RankBrain (2015)
Annoncé officiellement le 26 octobre 2016, RankBrain a pour objectif de simplifier la compréhension de l’intention de recherche d’une requête complexe (composée de plusieurs mots). Cet algo fait appel à l’intelligence artificielle et au « machine learning » pour tenter entre autres de comprendre les 15% de nouvelles requêtes saisies chaque four et auparavant inconnues du moteur de recherche.
S’il a été affirmé qu’il n’est pas possible d’optimiser un site pour RankBrain, il est fortement recommandé d’agir sur tous les signaux portant sur la qualité de l’expérience utilisateur (« pogosticking », taux de rebond, temps moyen passé sur la page) et de réfléchir à l’adéquation du contenu avec l’intention de recherche.
Comment optimiser son site pour RankBrain ?
- Travailler la sémantique en privilégiant un champs lexical large et des synonymes aux répétitions de mots clés
- Travailler à fond une thématique plutôt que plusieurs de manière superficielle (clusturisation)
Mobile (2015)
L’algo « Mobile » a été officiellement déployé le 21 avril 2015 et mis à jour en mai 2016.
Sa mission : s’assurer que les contenus mis à disposition par les webmasters sont facilement consultables sur les terminaux mobile. La compatibilité avec le mobile est devenue depuis cette date un facteur de classement. En clair, lors d’une recherche sur un smartphone, les pages « mobile-friendly » seront favorisées par rapport à celles qui ne le sont pas.
Que faire pour ne pas être pénalisé par Mobile ?
- Offrir une version mobile du site
- S’assurer de l’utilisabilité des pages du site sur mobile avec l’outil de test d’optimisation mobile de Google
Medic (2018)
Le site de référence des professionnels du Search Marketing Moz.com a enregistré une volatilité importante des positions les 1er et 2 août 2018 grâce à son outil « MozCast Temperatures ». Ce pic, qui cache visiblement une mise à jour majeure, semblait majoritairement toucher des sites de la thématique « médicale » d’où son nom « Medic ».
Une information confirmée officiellement le jour même sur le compte Twitter du moteur :
This week we released a broad core algorithm update, as we do several times per year. Our guidance about such updates remains the same as in March, as we covered here: https://t.co/uPlEdSLHoX
— Google SearchLiaison (@searchliaison) August 1, 2018
Bien sûr, l’équipe en charge de cette communications s’est bien gardée de dire pourquoi certains sites avaient chuté, ni ce qu’il fallait faire pour remonter.
Comment remonter après une chute générée par l’update Medic ?
- Se concentrer sur le triptyque E-A-T pour Expertise, Authority (autorité) et Trust (confiance) en fournissant non seulement du contenu en adéquation avec les intentions mais aussi, faisant autorité dans son domaine
- Travailler en particulier son profil de netlinking en privilégiant la qualité à la quantité des liens
Bert (2019)
BERT est un algorithme de traitement du langage naturel, qui, tout comme RankBrain, a pour but d’améliorer la compréhension des requêtes. Son nom officiel veut dire en anglais « Bidirectionnal Encoder Representations form Transformers« . Grâce aux « transformers » qu’il a introduit, il comprend d’avantage la relation que les mots ont les uns avec les autres, aussi bien dans une requête que dans le contenu d’une page. Ainsi, il va s’appuyer sur les mots qui précédent un mot en particulier et ceux qui le suivent, pour mieux cerner leur contexte d’utilisation.
Plutôt que de tenter de vous expliquer quelque chose de très compliqué à vulgariser, nous vous proposons d’écouter Sylvain Peyronnet en parler, THE spécialiste français en algorithmie :
Peut-on optimiser son contenu pour Bert ?
Bien que John Muller ait déjà répondu que cela n’était pas possible, ce dernier a apporté quelques éléments de réponse :
« Le contenu d’une page est un élément sur lequel vous pouvez agir. Notre conseil sur ce point précis est d’écrire de manière naturelle.. »
Si vous avez bien regardé la vidéo ci-dessus, vous aurez retenu qu’il vous est conseillé de :
- Soigner le contexte des mots sur la partie la plus importante d’un texte. Idéalement, celui qui réponds à la question de l’internaute
- Eviter les digressions dans le contenu principal pour éviter la perte de contexte
Page Experience / Core Web Vitals (2021)
En novembre 2020, le blog Search Central annonçait l’arrivé la modification du classement d’une page en fonction de l’expérience qu’elle propose aux visiteurs. Cette mise à jour nommée « Page Experience » s’est étalée sur plusieurs mois jusqu’en août 2021.
Parmi les signaux pris en compte dans « Page Experience », une combinaison de facteurs contribuant à offrir un résultat le plus susceptible de répondre aux attentes des internautes soit :
- l’ergonomie mobile,
- la vitesse du site et le temps de chargement d’une page,
- la navigations sécurisée et la sécurité HTTPS,
- l’absence de publicités interstitielles abusives,
- etc.
Comment préparer son site pour Page Experience / Core Web Vitals ?
- Consulter fréquemment le rapport « Signaux Web Essentiels » dans la Search Console et régler les problèmes mis en lumière par le rapport
- Apporter les améliorations sur le temps de chargement soulevés par des outils tels que PageSpeed Insights ou Lightouse
Les Core Updates (2019,2020,2021)
Depuis 2017, Danny Sullivan et son équipe ne donnent plus de « petit nom » aux updates majeures mais seulement l’appellation « Core Update + nom du mois de lancement officiel ». Les SEO les découvrent soit via le compte Twitter Google SearchLiason ou via les sites qui disposent d’outil de mesure de la volatilité des SERP. Le problème principal pour les référenceurs, c’est que le moteur ne est beaucoup moins transparent sur les critères sur lesquels l’update se focalise.
Que-faire si mon site est touché par une « Core Update » ?
- La seule chose à faire est de guetter les informations et études distillées par les influenceurs du monde du Search Marketing les semaines suivants une update. Des sites comme Webrankinfo ou Sixtrix publient régulièrement des études où ils comparent les gagnants et perdants des updates.
Est-ce que Google communique sur les changements de ses algorithmes ?
Google ne communique pas à l’avance sur la modification ou la mise en place de ses algorithmes de recherche. En revanche, 6 mois avant leur prise en compte, elle donne des indications sur les nouveaux critères pouvant affecter ses algorithmes. Ceci permet donc d’anticiper les évolutions et les conséquences sur les résultats de recherche.
Comme Google n’indique pas en quoi les nouveaux critères modifieront les remontées des résultats dans ses pages de recherche, on ne peut que spéculer sur l’impact qu’auront ces modifications.
Suis-je impacté par un changement d’algorithme Google
La question qui se pose bien souvent, est de savoir comment connaitre l’impact des algorithmes Google sur mon site Internet ?
Généralement on ne le sait pas puisque si le site Internet respecte toutes les recommandations et les critères proposés par Google, on ne constate aucune conséquence sur le trafic ou les fréquentations du site Internet.
En revanche, il est vrai que si on constate une évolution importante ou une baisse de trafic conséquente sur un site Internet, il est nécessaire d’analyser dans quelle mesure Google a pu attribuer des pénalités au site Internet.
A ce stade, le rôle de l’agence de référencement sera d’identifier à quoi correspond la chute de trafic. Si elle est liée à l’introduction ou la modification d’un algorithme de recherche ou s’il y a d’autres raisons.
Conclusion
Sachez que si vous constater une baisse importante de votre trafic ou bien que vous estimez ne pas générer autant de visite que vous le souhaiteriez, un audit de référencement vous permettra d’identifier très rapidement la nature du problème.
L’autre avantage de l’audit en référencement naturel SEO sera de lister de façon très précise les mesures nécessaires à prendre pour inverser une baisse de trafic constatée et/ou pour reconquérir des visiteurs sur votre site Internet.
Si vous avez des questions, n’hésitez pas à commenter ou à nous contacter par mail.