Les algorithmes de Google qui régissent les pages de résultats
Les algorithmes de Google sont ces processus informatiques qui permettent de transformer une requête en une indexation des sites internet sur la page de résultats. Chaque année, les filtres qui assurent le classement dans les SERPs (Search Engine Results Pages) font l’objet d’une update. Connaître l’impact SEO de Panda ou encore Penguin est nécessaire pour assurer votre référencement.
Vous connaîtrez l’essentiel avec ce tour d’horizon des algorithmes signés Google
Le classement des sites web dans la SERP, Google l’opère grâce à ses algorithmes qu’il essaie de rendre chaque année plus performants. Il en ajuste donc les paramètres, en fonction des résultats constatés et des évolutions du web. Selon Google, son algorithme prend en compte environ 200 signaux et critères différents ! Un rédacteur SEO se doit d’en connaître les grandes lignes pour optimiser le référencement naturel des pages dont il écrit le texte. Voici un tour d’horizon des principaux algorithmes du géant moteur de recherche.
Google Panda (2011) : Tourné vers le contenu on-site, Google Panda sanctionne les sites de mauvaise qualité, les contenus sans intérêt, le spam et le duplicate content.
Google Penguin (2012) : Davantage centré sur les pratiques offsite, Google Penguin sanctionne le référencement abusif des sites web ou des pages de blog visant la multiplication de liens vers du contenu de mauvaise qualité.
Google Colibri (2013) : L’impact de cet algorithme de Google est une révolution : 90 % des requêtes mondiales sont touchées ! Cette update change la manière dont le moteur de recherche appréhende les requêtes. Google peut désormais comprendre le langage naturel des internautes et interprète l’intention de l’utilisateur cachée derrière sa recherche.
Google « Pigeon » (2015) : S’attelle aux requêtes locales. Il repère les recherches nécessitant une réponse géographiquement ciblée, faisant de la géolocalisation un critère important.
Compatibilité Mobile (2015) : Cette mise à jour s’applique aux requêtes envoyées depuis des appareils mobiles. Google a compris que l’impact d’un site web adapté aux mobiles est important sur l’expérience utilisateur. Il favorise désormais les pages web avec version mobile ou entièrement responsive.
Le cas Google Phantom : Les experts SEO notent parfois de profonds changements dans le contenu des pages de la SERP, sans annonce officielle de Google. En 2013 et 2015, Glenn Gabe a ironiquement baptisé ces gros changements « Phantom » et « Phantom 2 ». À l’image de Google Panda, ces modifications de l’algorithme auraient privilégié les contenus de qualité et sanctionné les sites web aux publicités trop présentes.
Google RankBrain (2015) : L’intelligence artificielle du moteur de recherche améliore la qualité du référencement naturel. Les éléments analysés de l’expérience de l’utilisateur lui permettent de mieux comprendre les requêtes et d’adapter l’indexation des pages dans la SERP.
Medic update (2018) : Cette update annonce du changement surtout pour les sites internet de santé et de commerce, les YMYL (Your Money Your Life). Cet algorithme veille à la qualité du contenu des informations données sur ces pages web.
Google BERT Update (2018) : Cet algorithme intègre la contextualisation des requêtes quand les internautes utilisent un langage naturel dans leurs recherches.
Core update : Depuis 2019 c’est ainsi qu’est nommée chaque mise à jour de l’algorithme de Google.
Une mise à jour constante des algorithmes de Google
Google Panda et Google Penguin ont eu un impact considérable sur le référencement des sites internet. Tous les éléments de chaque page web sont soumis aux critères des algorithmes qui déterminent leur classement dans la SERP.
Et chaque année, Google met à jour le contenu de ses algorithmes pour améliorer constamment la qualité de l’expérience utilisateur. Les critères d’indexation précédents sont donc enrichis en permanence pour offrir un référencement naturel efficace dans les pages des résultats de recherche.
Avec tous ces filtres, comment favoriser votre référencement ?
Les algorithmes se multiplient et chaque mise à jour change la donne. Mais on peut dégager une direction générale prise par Google : son algorithme semble exiger de plus en plus de qualité et de fraîcheur aux sites web indexés. En résumé, si vous produisez régulièrement un contenu intéressant et fouillé, prenez la peine de baliser vos textes selon les pratiques SEO (sans les sur-optimiser) et construisez un netlinking de qualité, vous n’aurez a priori aucune raison d’être pénalisé.