Définition de l’algorithme de Google

 

L’algorithme c’est un ensemble de traitements informatiques appliqués aux pages internet sur le moteur de recherche Google afin de pouvoir déterminer un classement dans la liste des résultats de recherche.

Ce classement des pages web se fait par le biais de plusieurs paramétrages, notamment :

  • La pertinence des contenus d’une page web
  • Les mots clés utilisés
  • Le contexte (localisation, recherche mobile etc.)
  • La sécurité de la page internet
  • Les balises html
  • La qualité des liens sur le site
  • Les différents réglages internes en SEO

Toute la complexité du référencement naturel (ou SEO) est donc de coller à l’algorithme Google.

SEO Swiss Lemon

 

Les mises à jour majeures de l’algorithme Google

 

  • Juin 2010 : mise à jour CAFFEINE

Permet de crawler puis d’indexer une page instantanément. Avant sa mise en place, Google ne pouvait procéder à l’indexation de pages qu’après avoir extrait, analysé et compris leur contenu.

 

  • Février 2011 : mise à jour PANDA

Il pénalise le référencement des sites web dont le contenu est de faible qualité. Ce filtre vise essentiellement à lutter contre les sites de contenu, créés uniquement pour le référencement et le spam.

 

  • Janvier 2012 : mise à jour TOP HEAVY

Pénalise le SEO des sites anormalement surchargés en publicités.

 

  • Avril 2012 : mise à jour PENGOUIN

Pénalise le référencement des sites qui ne respectent pas les directives de Google en matière de création, d’achats ou de réseaux de liens.

L’algorithme Penguin a été ajouté dans l’algorithme cœur de Google et il fonctionne maintenant en temps réel.

 

  • Août 2012 : mise à jour PIRATE

Vise à retirer des résultats de recherche les sites ayant reçu des plaintes pour violation de droits d’auteurs.

 

  • Septembre 2012 : mise à jour EMD

Exact Match Domain, permet d’éviter que les sites de faible qualité soient bien placés uniquement grâce à un nom de domaine contenant une requête très recherchée.

 

  • Juin 2013 : mise à jour PAYDAY

Supprime les résultats en lien avec des requêtes assimilées au spam (crédits, jeux en ligne…)

 

  • Septembre 2013 : mise à jour COLIBRI

Cet algorithme est l’un des plus importants de Google, grâce à lui, la recherche devient précise et rapide.

Ouverture sur les intelligences artificielles comme Alexa ou Siri, la requête internaute est prise en compte dans sa totalité et non plus juste sur quelques mots clés présents dedans.

 

  • Juillet 2014 : mise à jour PIGEON

Cet algorithme favorise les résultats de recherche locaux pour apporter des solutions plus précises aux requêtes des utilisateurs.

 

  • Avril 2015 : mise à jour Mobile Friendly

Privilégie le référencement des sites web adaptés au mobile. Depuis 2015, la compatibilité mobile est une priorité pour Google et un facteur de référencement très important.

 

  • Début 2015 : mise à jour RANKBRAIN

Mise à jour assez particulière et mystérieuse. Il s’agirait d’une intelligence artificielle capable de comprendre le sens de requêtes similaires, mais formulées différemment.

 

  • Mai 2015 : mise à jour PHANTOM

Cette mise à jour semblerait porter sur la qualité des contenus d’une page web. Encore beaucoup d’inconnus tournent autour de l’algorithme Phantom.

 

  • Novembre 2017 : longueur des descriptions

Le nombre de caractères affichés dans les descriptions des résultats, passent d’une limite de 160 caractères à une limite de 320 caractères.

 

  • Août 2018 : mise à jour CORE UPDATE

Il s’agit d’un format de mise à jour général de l’algorithme, dont les modifications apportées peuvent être plus ou moins importants selon les points qu’elle traite/optimise.

 

  • Juin 2019 : mise à jour CORE UPDATE

Nouvelle mise à jour majeure de l’algorithme. Il s’agit d’une update dont l’objectif est de renforcer les exigences en matière de qualité globale à propos des résultats affichés, notamment concernant la vitesse de chargement des pages, la pertinence de la thématique, la sécurité (https) ou encore l’UX/UI.

 

  • Juin 2019 : mise à jour SITE DIVERSITY UPDATE

Renforce la diversité des résultats dans les pages de recherche.

 

  • Septembre 2019 : mise à jour CORE UPDATE

Google considère toujours plus chaque résultat existant, pour continuer à proposer des SERPs pertinentes avec un contenu de qualité et sûr.

 

  • Décembre 2019 : mise à jour BERT

BERT représente les prémices d’une intelligence artificielle dans le moteur de recherche Google. Cela se traduit par la contextualisation des mots-clés issus d’une requête, non plus considérés individuellement par le moteur, mais dans leur ensemble.

Cette mise à jour permet également à la recherche vocale d’être toujours plus proche de ce qu’attend l’internaute.

 

  • Décembre 2020 : mise à jour CORE UPDATE

Son but est d’améliorer la manière dont ses robots classent les pages indexées pour les résultats de recherche.

 

  • Mai 2021 : mise à jour CORE WEB VITALS

Cette mise à jour va se focaliser sur l’expérience utilisateur.

Analyse du temps d’affichage ou encore stabilité visuelle de la page pendant le temps de chargement, seront des critères importants quant au classement des pages.

 

 

Le référencement naturel et les algorithmes Google

 

Vous l’aurez donc compris, le référencement naturel aussi appelé SEO, est un ensemble de techniques à mettre en place sur un site pour sa bonne visibilité. Mais à cela s’ajoute les mises à jour fréquentes de l’algorithme de Google, qu’il est nécessaire de prendre en compte pour toujours respecter les « règles » de classement dans le moteur de recherche.

Les mises à jour des algorithmes évoluent constamment et permettent de toujours mieux classer les pages de résultats de recherche, dans l’unique but de satisfaire les internautes.

Google est le moteur de recherche le plus utilisé au monde, avec plus de 90% de part de marché mondiale, il est primordial de connaitre son fonctionnement et de se tenir à jour des évolutions.

Google Swiss Lemon

 

Les robots de Google suivent les algorithmes

 

Les robots de Google parcourent toutes les pages des sites mis en ligne sur internet. Il suit les liens présents dans les pages, compare, analyse …

Il va « indexer » les sites, c’est-à-dire qu’après son passage, il va ranger les informations présentes dans le site comme des documents dans sa bibliothèque géante.

Ces documents seront associés à des mots clés, des requêtes que les internautes vont taper dans la barre de recherche.

Si le contenu du site correspond à la requête, le site sortira dans les résultats, comme on pourrait sortir un document pour répondre à une question.

Si les contenus du site ne correspondent pas aux exigences des robots Google, le site ne sera pas bien positionné et il n’aura aucune visibilité. Et c’est en suivant les mises à jour des algorithmes de Google, que le travail du SEO sera le plus pertinent et le plus qualitatif.