Qu’on se le dise : pour Google, le contenu est roi (« Content is king » comme on dit du côté de Mountain View) et reine la satisfaction de l’internaute !
Rien d’étonnant qu’au fil de ses changements successifs (Panda, Penguin, Colibri,Pigeon…), le puissant et secret algorithme de Google ait choisi de faire la part belle à l’expérience utilisateur, au détriment des sites qui ont un peu trop vite oublié la raison d’être première du Web : proposer aux internautes des contenus de qualité, pertinents et à forte valeur ajoutée.
Tour d’horizon rapide des principaux changements de l’algorithme qui règne en maître sur la Toile et qui ont défrayé la chronique ces dernières années.
Quand un internaute saisit une requête (mot-clé ou question « conversationnelle ») dans Google, les sites qui vont lui être proposés « naturellement » sont le résultat du travail de l’algorithme du moteur de recherche.
On sait que les positions des sites mis en avant sont principalement basées sur la pertinence des contenus, par rapport au sujet requêté (ce qui, historiquement, a pleinement contribué à asseoir le succès de Google).
On sait également que l’algorithme de Google est un des secrets les mieux gardés au monde,et qu’il combine plus de 200 critères de pertinence pour « choisir » les sites qui auront l’insigne chance de « remonter » en première page !
La prise en compte de « l’algorithme » de Google est donc essentielle dans toute stratégie de référencement naturel (SEO – Search Engine Optimization) visant à positionner optimalement les sites sur les requêtes-clés.
Mais cet algorithme est pour le moins changeant… Google le met à jour périodiquement,baptisant ses principales modifications de doux noms animaliers : Panda, Pingouin, Colibri,Pigeon…
Loin d’être anecdotiques, ces changements font périodiquement trembler la Toile, tant ils rebattent les cartes. C’est ainsi que certains « acteurs » majeurs du Web ont, d’un jour à l’autre, pu constater une baisse de trafic brutale et durable de leurs sites après des « updates » de l’algorithme de Google.
On l’aura compris : pour Google, seuls les sites qui répondent correctement aux besoins des internautes ont droit de cité dans les résultats de son moteur de recherche.
C’est pourquoi, au fil des années (et des changements de son algorithme), Google continue de faire de l’expérience utilisateur des internautes sa priorité absolue.
Google Panda : priorité absolue à la qualité du contenu
Concrètement, il y a eu un avant et un après Panda.Avant Panda, Internet était truffé de sites sur-optimisés à base de répétitions insensées de mots-clés et de contenu sans réelle valeur ajoutée.
Avec Panda (officiellement intégré au cœur de son algorithme de classement général en mars 2013), Google a clairement remis de l’ordre dans la Toile en sifflant la fin de la récréation.
Avec un message on ne peut plus clair : donnez à vos internautes des contenus de qualité ou vous serez voués aux oubliettes du Web Panda a donc puni les sites coupables en supprimant la visibilité des contenus :
mauvaise qualité
dupliqués (copié-collé)
sur-optimisés
Google Pingouin : la fin des liens artificiels
Une des bases du référencement naturel réside dans les liens (entrants et sortants) noués entre sites traitant principalement de sujets communs ou connexes. Dans le jargon des pros du SEO, on les appelle des backlinks. Grossièrement, plus un site compte de backlinks, en quantité et surtout en qualité, plus son positionnement est élevé.
Et il va sans dire que la tentation a longtemps été forte de « forcer » un peu sur la dose des backlinks.
Depuis avril 2012, Google Pingouin est venu corriger cette dérive en sanctionnant les sites dont les liens étaient manifestement artificiels (sans raisons pertinentes avec les sujets traités). Bien plus, Pingouin est tout à fait capable d’apprécier la qualité d’un lien : l’intention dans laquelle celui-ci a été créé est l’un des facteurs essentiels de sa prise en compte dans l’indexation du site !
Google Phantom : sus aux contenus de faible qualité !
Contenus trop courts, proportions textes/visuels en défaveur du texte, pages de listing vidéo…. : dans la lignée de Panda, Google Phantom a très largement sanctionné les sites qui n’ont pas mis l’internaute au cœur du contenu.
L’expérience utilisateur est ici encore clairement privilégiée par ce nouveau changement de l’algorithme. Pour mesurer votre succès SEO, ne comptabilisez plus les visites ! Prenez plutôt en compte le nombre d’occurrences où vous avez mis votre site en adéquation avec ce que venait y chercher chaque nouveau visiteur.
Google Colibri : favoriser les sites qui répondent aux questions des internautes
En septembre 2013, Google change discrètement la façon dont son moteur répond auxrequêtes des internautes. Pour autant, discrétion rime avec modification majeure de l’algorithme de pertinence !
Google est parti d’un constat simple : de plus en plus d’internautes saisissent leurs requêtes dans le moteur de recherche sous forme de questions (comprenant plusieurs mots). Par l’analyse des requêtes conversationnelles (autrement dit des questions que l’on pourrait poser à quelqu’un au cours d’une conversation), Google Colibri (Hummingbird ) montre qu’il a intégré l’utilisation de la commande vocale à son fonctionnement. Il s’adapte donc aux nouveaux usages, notamment au niveau d’exigence des internautes qui souhaitent trouver un maximum d’informations pertinentes.
Google Colibri entend donc privilégier clairement les sites qui apportent des réponses claires et précises aux questions que posent les internautes. Pour autant, Colibri est-il vraiment indispensable ?
Deux exemples (parmi d’autres) permettent d’en douter :
1. Lorsque Colibri ne trouve de résultats satisfaisants à la requête, c’est l’ancien algorithme de co-occurrence qui fonctionne par défaut.
2. Colibri permet de faire figurer les termes exclus de la recherche par l’algorithme : on peut alors voir le mot clé barré sous le résultat de recherche. Mais Colibri intervient uniquement lorsque le mot-clé n’a rien à voir avec le reste de la requête ! Etonnant, non ?
Google Pigeon : priorité au référencement local (géolocalisation)
Les recherches géographiquement ciblées sont mieux traitées depuis l’apparition de Google Pigeon. Ainsi, les résultats affichés prioritairement intègrent des paramètres de classement liés à la géolocalisation et à la distance, notamment grâce à la prise en compte des paramètres issus de Google Maps (ou de lieux épinglés sur une map).
Google a aussi expliqué que le “nouvel algorithme dédié à la recherche locale était désormais mieux lié à la recherche classique”. Plus précisément, les critères qui font remonter un résultat dans Google Maps sont désormais plus proches de ceux employés pour classer les résultats classiques. D’après Google, Pigeon est donc censé mieux inclure les centaines de critères utilisés dans le cadre de la recherche classique, mais aussi le Knowledge Graph,l’orthographe, les synonymes et “bien d’autres choses”…
Le moteur a aussi précisé avoir amélioré “les paramètres de classement lié à la géolocalisation et à la distance”.
Google Mobile-Friendly ( 21 avril 2015)
Les sites qui jouent le jeu du mobile (qui sont optimisés pour une navigation sur smartphones et tablettes) sont maintenant favorisés par Google Mobile-Friendly (Mobilegeddon). Si votre site n’est pas responsive, il y a fort à parier que son classement dans les pages de résultats de Google va en pâtir.
Pour les gros et moyens acteurs du marché, il semblerait qu’il n’y ait pas de réel changement dans l’index de résultats. Rien d’étonnant à cela : s’étant immédiatement conformés à la nouvelle donne, le changement de Google n’a donc pas eu d’effets majeurs dans leurs classements.
En revanche, les petits acteurs qui n’ont pas les moyens d’adapter leurs sites à un usage Mobile (Responsive Web Design) ont pu voir leurs positionnements décroître. Et c’est loin d’être fini : la fracture entre les deux segments va continuer de se creuser, parallèlement à la croissance continue des usages Mobile.
Google RankBrain : quand le référencement naturel est déjà à l’heure de l’intelligence artificielle.
Google a développé en début d’année 2016 un algorithme ultra sophistiqué utilisant un système d’intelligence artificielle et d’apprentissage automatique capable de deviner le sens des mots et expressions qu’il n’a encore jamais vus. Nom de code : RankBrain.
Objectif : offrir aux internautes des résultats toujours plus pertinents, en améliorant encore la compréhension de la pertinence d’un site par les robots d’indexation.
Actuellement, plus de 15% des requêtes quotidiennes des internautes sont traitées grâce à la couche d’intelligence artificielle RankBrain. Vraisemblablement fortement lié à Hummingbird, Rankbrain est, entre autres, basé sur la compréhension des liaisons sémantiques entre les mots, les expressions…
Conclusion
Chaque changement majeur de l’algorithme fait trembler les entreprises (« pure player » et « brick and mortar ») dont la rentabilité dépend pour beaucoup de leur place dans les résultats sur leurs requêtes-clés.
Parallèlement, il est régulièrement reproché à Google de fausser la concurrence en mettant trop en avant ses propres services dans ses résultats.
Quoi qu’il en soit, une chose est sûre : changement d’algorithme après changement d’algorithme, la philosophie de Google est sans cesse réaffirmée : présenter aux internautes des résultats les plus pertinents possibles à partir de sites de qualité.
Les best practices à retenir :
soignez l’expérience utilisateur
limitez la présence de publicités
développez des contenus hautement qualitatifs
faites la chasse aux erreurs techniques