| SOUMISSION GRATUITE (418) 523-5323

Mises à jour de l’algorithme Google : Un petit bout d’histoire

Mises à jour de l’algorithme Google : Un petit bout d’histoire

Dans le passé, les règles de base SEO ont fréquemment été chamboulées par les différentes mises à jour de l’algorithme Google. Évidemment, d’autres changements sont à prévoir dans un avenir très rapproché et plusieurs professionnels en référencement font déjà leurs projections sur les nouveaux critères à respecter pour atteindre les prestigieuses premières positions dans le SERP.

Demandez à n’importe quel historien, l’une des meilleures approches pour prévoir les évènements futurs est de regarder en arrière. Les changements déjà effectués par le géant des moteurs de recherches en révèlent beaucoup sur ses priorités. Voilà pourquoi nous vous proposons un petit retour en arrière sur les plus importantes mises à jour de Google.

Panda : Le contenu

Instauré en février 2011, Panda a réécrit complètement la façon de faire du référencement. À partir de ce jour, il était là pour assurer que seulement du contenu de qualité serait affiché sur le moteur de recherche. 12 % des requêtes de recherche ont été affectées par cette mise à jour majeure.

Depuis son implantation, l’algorithme sert de filtre pour empêcher le contenu de basse qualité, les «spams» et tout ce qui est ajouté sans donner de valeur à un site internet. Par exemple, tout contenu dupliqué, plagié ou rempli de fautes d’orthographe se retrouvait extrêmement pénalisé. Comme Google a intégré Panda dans ses mises à jour en continu, de nombreux critères se sont ajoutés au fil du temps et aucune liste exhaustive n’existe.

Penguin : les liens externes

Une fois le contenu corrigé, c’est en avril 2012 que la perturbation suivante est arrivée. En effet, l’algorithme Penguin faisait son apparition. Touchant 2,3 % des requêtes, le but de cette nouvelle mise à jour était de décourager les pratiques non conformes en matière de SEO. Ainsi, Google a commencé à pénaliser sévèrement le «netlinking» et les échanges de liens. De plus, l’accès à des pages différentes pour un robot et pour un humain a commencé à être détecté et pris en compte au niveau du référencement.

Le message de Google était clair, pour être présent dans son SERP, il fallait jouer selon ses règles. Penguin est donc devenu la deuxième police du moteur de recherche, empêchant quiconque d’essayer de contourner les critères instaurés. Il faut simplement s’assurer de vérifier la qualité des sites d’où proviennent vos liens externes d’éliminer ceux qui pourraient vous porter préjudice.

Pirate : Le copyright

Instauré en octobre 2014, la mission de l’algorithme Pirate était simple, s’assurer que les sites référencés ne contenaient rien de piraté. Ce changement a particulièrement affecté les sites de téléchargement frauduleux. Pour éviter d’être pénalisé, il suffit de ne publier que du matériel dont vous êtes le propriétaire, libre de droits ou dont vous avez l’accord de la personne qui possède le copyright.

Hummingbird: le sens d’une recherche

Encore une fois, le géant Google a complètement changé sa façon de référencer les sites internet en implantant Hummingbird en août 2013. À partir de cette mise à jour, une requête sur un moteur de recherche devint bien plus qu’une série de mots-clés. En effet, Google s’est donné comme mission de comprendre l’intention des utilisateurs derrière leur recherche. De cette façon, il s’assurerait de toujours livrer le contenu le plus pertinent possible à ses utilisateurs. De plus, il implantait également une nouvelle structure au SERP, y incorporant des fonctionnalités supplémentaires et des images.

Cette fois-ci, pour rester dans la course et réussir à obtenir des positions de choix dans la page des résultats, il faut connaître votre client. Il vous faut donc trouver les mots-clés exacts qu’il utilise. L’utilisation de la longue traine devient également une tactique très payante. La formulation de mots-clés sonne désormais moins mécanique, plus humaine.

Pigeon : le référencement local

Avec l’arrivée des appareils mobiles, la géolocalisation a fait son apparition. Évidemment, cela entrainait des opportunités incroyables. En juillet 2014, Google fit une mise à jour dont le but était de prendre en considération l’emplacement géographique de l’utilisateur pour lui offrir des résultats encore plus pertinents. Donc, un utilisateur à Québec qui recherche «meilleur restaurant thaï», se fera proposer uniquement des restaurants thaïs situés à Québec même si celui-ci n’a spécifié aucun critère géographique.

Pour satisfaire à ce nouveau critère, il devient donc essentiel de spécifier la localisation de son commerce à travers son contenu, mais également dans ses choix de mots-clés. De plus, la création d’une page «Google My Business» devient un incontournable et il est primordial de s’assurer d’avoir les bons nom, adresse et numéro de téléphone.

Conclusion

Finalement, ceci n’est qu’un aperçu de toutes les mises à jour implantées par Google. Avec l’utilisation de plus en plus grande des appareils mobiles et des requêtes vocales, les prochains changements risquent fort d’aller en ce sens. De plus, l’expérience utilisateur risque d’être privilégiée davantage. Selon vous, quelles seront les prochaines directives de Google en matière de SEO?

Philippe C-Marcil
Philippe C-Marcil

Diplômé en marketing à L’UQAR, je suis responsable du contenu et spécialiste en référencement web / SEO.


Poster le commentaire

Share This