Le succès de Google, le moteur de recherche le plus utilisé au monde, repose sur la mise à jour constante de son algorithme, qui lui permet d’analyser des millions de sites en quelques secondes et d’établir un classement (la page de résultats du moteur de recherche) des meilleurs, en fonction de la requête tapée par l’utilisateur.
Ces mises à jour continues sont une conséquence naturelle de la « surpopulation » actuelle de contenus et de recherches sur le web. Des mises à jour sont nécessaires afin d’améliorer constamment les réponses renvoyées à l’utilisateur lorsqu’il utilise le moteur de recherche.
Cet article est né avec l’intention d’illustrer quelles sont les mises à jour que Google a lancées au cours de la dernière décennie. Connaître les caractéristiques des algorithmes est important pour mettre en place des stratégies de référencement qui amènent le site en haut des SERPs, et pour être Premier sur Google, et éviter les pénalisations.
Contenu
- 1 Comment faire pour savoir si votre site a été pénalisé ?
- 2 Comment fonctionne l’algorithme de Google ?
- 3 Mises à jour : historique des mises à jour de Google
- 4 Google Panda – 2011
- 5 Google Penguin – 2012
- 6 Google Hummingbird – 2013
- 7 Google Pigeon – 2014
- 8 Google RankBrain et Mobilgeddon – 2015
- 9 Google Possum – 2016
- 10 Google Fred – 2017
- 11 Mise à jour « Mobile-first » – 2017
- 12 Mise à jour Medic Update- 2018
- 13 Google Bert – 2019
- 14 Questions relatives au contenu et à la qualité
- 15 Questions sur l’expertise
- 16 Questions sur la présentation et la production
- 17 Questions comparatives
- 18 Comment comprendre si votre site a été pénalisé ?
- 19 Mais comment reconnaître une pénalisation de Google ?
Comment faire pour savoir si votre site a été pénalisé ?
Pour ceux qui ont un site web ou qui sont impliqués dans le référencement, il est important d’avoir un aperçu clair du fonctionnement de l’algorithme, de ses mises à jour et des paramètres sur lesquels il se base pour classer les SERPs.
Lorsque Google fait la publication d’une nouvelle mise à jour de son algorithme, les SERPs changent. Le lien entre Google et le référencement est assez évident. Disons qu’un expert en référencement utilise une stratégie pour améliorer la visibilité d’un site afin que l’algorithme le place parmi les premiers résultats dans les SERP. La stratégie sera mise en place pour répondre à toute une série de paramètres jugés positifs par le moteur de recherche. Mais lorsque l’algorithme est mis à jour, et cela arrive souvent, certains des paramètres sur lesquels la stratégie était basée peuvent changer. En conséquence, le site pourrait en pâtir, perdant sa visibilité. Selon les cas, vous pouvez subir de lourdes pénalités de référencement.
Il arrive très souvent qu’un site, d’un jour à l’autre, enregistre une baisse considérable des vues organiques. Dans presque tous les cas, la cause réside dans la mise à jour de l’algorithme et si vous n’intervenez pas immédiatement, le trafic continuera à baisser inexorablement. C’est finalement assez simple de comprendre pourquoi ces mises à jour sont si redoutées.
Comment fonctionne l’algorithme de Google ?
L’algorithme actuel est basé sur PageRank, l’un des algorithmes originaux qui attribue un poids numérique à chaque élément d’un ensemble de documents hypertextes (la page web), afin de mesurer son importance au sein du réseau. A ce jour, il y a plus de 200 facteurs de classement que le site doit respecter pour être bien classé. Et Google n’est pas si généreux pour les révéler tous.
En général, nous savons qu’il repose sur :
Facteurs on page (internes au site), liés à sa structure (tels que les mots-clés), le thème du site et les sujets qui y sont traités, et les éléments HTML.
Les facteurs hors page (externes au site), c’est-à-dire ceux liés à la popularité du site, déterminée par la quantité et, surtout, par la qualité des liens que la page reçoit d’autres sites et blogs, par le comportement des utilisateurs à l’égard du site.
Le point sensible est que le classement comporte également un certain nombre d’éléments qui détériorent le positionnement du site et qui, dans de nombreuses occasions, entraînent de véritables pénalités.
Mises à jour : historique des mises à jour de Google
L’objectif de Google est de fournir des réponses de plus en plus précises et de qualité aux questions posées par l’utilisateur. Pour ce faire, elle a entamé une guerre de mises à jour contre tous les petits malins qui ont utilisé des pratiques pas très propres pour placer dans les premiers résultats des SERPs des sites de mauvaise qualité.
Chaque année, plus de 500 mises à jour sont effectuées. Seules certaines mises à jour sont annoncées et rendues officielles par Google, d’autres passent presque inaperçues, elles sont appelées Core Updates. Ces derniers n’ont pas de nom officiel, mais ils ont un impact important sur les résultats de recherche. Ce sont les mises à jour qui font le plus peur, car pour certains gestionnaires de sites web, elles pourraient avoir des conséquences négatives sur le positionnement de leur site et parce qu’avec ces algorithmes, Google ne fournit pas d’informations sur les paramètres qui ont été mis à jour, ce qui rend difficile d’apporter les bonnes modifications au site.
Mettez-vous à l’aise car nous allons maintenant vous guider à travers les mises à jour de Google les plus importantes (et ayant un fort impact sur les SERPs) de la dernière décennie.
Google Panda – 2011
Google Panda est l’une des mises à jour les plus importantes de Google et reste encore aujourd’hui une métrique avec laquelle il faut compter. Il a été introduit en 2011 et mis à jour jusqu’en 2016.
Le mot d’ordre de cette mise à jour est « qualité ». L’objectif était, et est toujours, de classer les sites en fonction de la qualité du contenu qu’ils présentent. Nous parlons de tous ces sites que nous voyons dans les premières positions de Google parce qu’ils présentent un contenu riche et pertinent et que la navigation de l’utilisateur est claire et simple.
Google Panda a poussé les spécialistes du marketing et les rédacteurs à repenser la façon dont ils créent du contenu. Dans le monde du marketing, cette mise à jour est également connue sous le nom de Farmer Update, car son but était de contrer les fermes de contenu, c’est-à-dire tous ces sites de spam, au contenu pauvre ou copié, qui empêchaient les meilleurs sites d’avoir un bon classement.
Google Penguin – 2012
Après avoir mis un frein aux contenus de faible qualité, en 2012 avec Pingouin Google se consacre aux liens du site (internes et externes). L’objectif de Pingouin est de découvrir qui utilise des liens non spontanés et de les pénaliser.
Google part du principe que dans un monde idéal – le Web – l’objectif d’un site devrait être de fournir des liens intéressants et approfondis vers les informations contenues dans la page. Mais en réalité, le propriétaire d’un site tente souvent de forcer le passage d’un maximum de liens pour augmenter sa visibilité. En général, ces liens sont des spams ou proviennent de pages de mauvaise qualité.
Paru plus tard dans les versions 2 et 3 l’algorithme a commencé des périodes de scans périodiques et non plus constants, identifiant les sites les moins vertueux à pénaliser. Depuis 2016, avec Penguin 4, au contraire, il travaille en temps réel en intervenant immédiatement lorsqu’il détecte des violations.
Peut-être la mise à jour la plus redoutée, elle pousse les spécialistes à être très prudents dans les campagnes de création de liens, en ne sélectionnant que des liens faisant autorité et en thème avec le site. Surtout depuis qu’il a été mis à jour pour fonctionner en temps réel, le phénomène des liens de spam qui permettaient à des projets éditoriaux non méritants de grimper dans les SERP a considérablement diminué et la qualité et le contenu de valeur ont augmenté.
Google Hummingbird – 2013
En 2013, nous tournons notre regard vers la sémantique.
Une personne qui lit la phrase « Aujourd’hui, j’ai lu un livre » n’a aucun mal à comprendre qu’il s’agit du verbe « lire » et non du verbe « coucher ». Pour un algorithme, il n’est pas aussi facile de le comprendre.
Hummingbird, un algorithme interprétatif, résout le problème : en analysant les textes, il porte une attention particulière aux mots et reconnaît ensuite leur véritable signification. De cette façon, il est en mesure de donner des réponses précises à l’utilisateur. Aujourd’hui, il influence environ 90 % des résultats dans les SERP car il est capable de donner des réponses précises et pertinentes aux requêtes des utilisateurs.
De cette façon, l’algorithme permet au moteur de recherche de comprendre à la volée les phrases de recherche de l’utilisateur, qui ne cherche plus sur la base de mots-clés uniques mais utilise la formule « où, comment, pourquoi ». Cette nouvelle capacité de l’algorithme rend efficace, de cette manière, également l’utilisation de longues files d’attente (mots-clés composés de plusieurs mots) pour l’indexation.
Évidemment, dans tout cela, un petit coup de pouce doit être donné à Google. Pour qu’il puisse comprendre le contenu d’une page, il faut lui donner des indices par le biais de données structurées, également appelées métadonnées.
Grâce aux données structurées insérées dans le site, vous pouvez fournir le contexte aux concepts traités dans la page. C’est de cette manière que Google pourra comprendre que vous vous référez à un sens du mot « lire » plutôt qu’à un autre.
Un exemple concret de la manière dont Google comprend l’intégralité de la phrase de recherche de l’utilisateur « Comment puis-je créer des annonces Google ? » – exprimée de manière familière – plutôt que d’analyser les mots de la phrase individuellement.
Google Pigeon – 2014
Google Pigeon est lancé en 2014 dans le but de rendre les résultats de recherche plus précis en fonction des besoins de l’utilisateur. Cet algorithme manipule les résultats des SERP en fonction de la géolocalisation de l’utilisateur, en intégrant les fonctions des autres algorithmes. Il est très utile lorsque vous recherchez un restaurant, une agence ou tout autre service/lieu à proximité.
Google RankBrain et Mobilgeddon – 2015
En 2015, Google avance dans deux directions : sur l’apprentissage automatique et l’optimisation mobile.
D’une part, avec RankBrain, le moteur de recherche, pour classer les réponses, prend en compte les mots-clés, les phrases et les recherches en ligne populaires et les associe aux recherches passées de l’utilisateur, à sa situation géographique et pour pouvoir donner une réponse spécifique, en essayant d’interpréter ce que l’utilisateur voulait vraiment dire, mais en même temps personnalisée.
D’autre part, Google publie Mobilgeddon, dans le but de pénaliser les sites web qui ne sont pas navigables depuis un mobile. Cette nouvelle approche « mobile friendly » a bouleversé les paramètres du référencement, rendant indispensable pour ceux qui veulent développer un site aujourd’hui, de le rendre également optimisé pour les smartphones.
C’est aussi la raison pour laquelle aujourd’hui, lors du développement d’un site, il est essentiel de commencer par la version mobile, puis d’adapter la version de bureau.
Se concentrer sur le mobile présente d’énormes avantages tant du point de vue du référencement que de la gestion et de l’obtention d’excellents résultats des campagnes Google Ads.
Google Possum – 2016
Google Possum est lancé en 2016 dans le but d’impacter la recherche locale, en permettant aux sites des entreprises à proximité de l’utilisateur de pouvoir bien se classer tout en donnant à l’utilisateur des résultats cohérents et personnalisés en fonction de sa localisation.
Bien que les principes du référencement local soient restés les mêmes, l’algorithme a amélioré le classement de toutes les entreprises qui sont basées juste en dehors des frontières physiques d’une ville et qui étaient auparavant défavorisées.
Là encore, alors qu’auparavant Google filtrait les entreprises qui avaient le même numéro de téléphone et/ou le même domaine – un traitement qui s’appliquait davantage aux espaces de travail partagés, comme un même cabinet d’avocats avec différents départements – le filtre est désormais basé sur l’adresse. Ainsi, les entreprises qui ont des onglets Google MyBusiness différents mais qui sont situées dans le même bâtiment ne seront pas toutes affichées, mais l’utilisateur pourra supprimer manuellement le filtre et voir également les résultats cachés.
Enfin, il semble que les résultats de recherche changent beaucoup, même pour de petites variations du mot clé recherché, comme vous pouvez le voir ci-dessous dans l’exemple des réponses pour « Bologna osteria » et « osteria Bologna ».
Google Fred – 2017
Google Fred est le nom d’un ensemble de mises à jour algorithmiques qui ont apporté des secousses troublantes au référencement entre janvier et mars 2017. On en revient encore une fois au contenu.
Avec cette mise à jour, Google s’oppose aux fake news et à toutes les pages qui diffusent des informations inexactes, copiées, délibérément non informatives ou trop générales dans le seul but d’attirer du trafic pour le monétiser. La présence excessive de publicité et la sur-optimisation du site sont également mal vues par l’algorithme.
Les sites touchés par cette mise à jour ont été nombreux, enregistrant d’énormes pertes de trafic.
Ainsi, plusieurs grands noms de l’édition ont pu bénéficier d’un bon coup de pouce dans les SERP car ils étaient considérés comme plus fiables que d’autres marques, comme Wikipedia, qui, bien qu’ayant investi au fil du temps dans un contenu de qualité, a enregistré des baisses (peut-être en raison d’éléments d’optimisation excessifs).
Mise à jour « Mobile-first » – 2017
La même année, il y a une autre grande nouvelle : le « Mobile-first ».
De plus en plus d’utilisateurs effectuent des recherches depuis des smartphones plutôt que des ordinateurs de bureau, et déjà en 2015, Google avait émis un avertissement pour que les sites soient adaptés aux mobiles.
Jusqu’alors, lors de la conception d’un site, on tenait compte de la vue du bureau, puis on l’adaptait également à la vue du mobile et de la tablette. Et Google a également suivi ce schéma pour ses systèmes d’indexation et de classement.
Avec Mobile-First, la hiérarchie est inversée : c’est-à-dire que nous partons de la conception pour l’affichage mobile, puis nous l’adaptons aux résolutions supérieures, tout comme Google, avec l’indexation Mobile-First, utilise la version mobile pour évaluer la pertinence d’une page et pour l’indexation dans le moteur de recherche.
En d’autres termes, si un site était auparavant bien classé pour les ordinateurs, mais qu’il n’avait pas l’air bien sur les smartphones, il avait encore la possibilité d’être bien classé pour les ordinateurs. À partir de mars 2017, un site qui n’est pas utilisable pour le mobile ne pourra pas non plus être bien classé pour l’ordinateur.
Avant cette mise à jour, il était très fatigant pour les utilisateurs de naviguer depuis un mobile car de nombreux sites n’avaient pas une bonne visibilité sur l’écran du mobile et il y avait souvent des problèmes de chargement du site et des éléments multimédias.
Avec Mobil-First, Google a mis en place une opération visant à faire migrer les sites vers l’indexation mobile-first, en fournissant des lignes directrices pour l’optimisation des pages grâce à une conception technique visant non seulement à rendre les sites utilisables depuis un téléphone mobile, mais aussi à optimiser l’expérience utilisateur et à rendre le site capable d’intercepter et de capter les utilisateurs.
Tout cela est possible en faisant attention à quelques détails :
S’assurer que Googlebot peut accéder au contenu et l’afficher correctement.
Assurez-vous que le contenu, les données structurées et les métadonnées saisis pour le bureau sont les mêmes que pour le mobile.
Vérifiez la qualité des images et des vidéos et les formats pris en charge.
Faites attention si le site mobile et le site de bureau ont été développés séparément, comme c’est souvent le cas avec les sous-domaines « m. ».
Mise à jour Medic Update- 2018
Au début du mois d’août 2018, Google affirme avoir publié une vaste mise à jour de l’algorithme de base, définie par les experts comme Medic Update car les plus touchés étaient les sites médicaux, bien que Google n’ait jamais parlé d’actions spécifiques envers une certaine niche.
Avec cette mise à jour, les SERP ont été totalement bouleversées, laissant la place aux contenus informatifs, qui sont flanqués de sites de commerce électronique, dont la présence est de plus en plus impressionnante.
La mise à jour médicale est également appelée « Search Quality Update », car elle porte sur la qualité et la variété du contenu. L’objectif de Google est de fournir la meilleure expérience utilisateur et la meilleure réponse possible à l’utilisateur.
Concrètement, cela signifie qu’il faut veiller à positionner les résultats informatifs lorsque l’utilisateur a besoin d’informations, et insérer au contraire des résultats commerciaux et, surtout, différents types de Google Ads sur les pages qui révèlent une intention de recherche visant l’achat. La mise à jour est probablement une nouvelle expansion de la navigation mobile, qui jusqu’à présent ne visait qu’à vérifier si le contenu était indexable depuis un mobile, alors que maintenant Google demande s’il est apte à occuper les premières positions dans les SERPs.
De cette manière, Google encourage une structure de marketing entrant des différents sites – qu’il s’agisse de sites informatifs ou de sites de commerce électronique – qui peut être résumée comme suit :
article informatif => découverte du produit => achat (si l’article informatif était suffisamment convaincant).
Il s’agit d’une mise à jour assez controversée car si d’un côté elle a amélioré la qualité des SERP en pénalisant les sites limites, d’un autre côté elle a aussi pénalisé des sites qui n’avaient aucune raison de l’être. Heureusement, dans les 6 mois et après une série de mises à jour ultérieures, la situation antérieure a été rétablie.
Google Bert – 2019
Bert est considérée comme la plus révolutionnaire des mises à jour de Google, conçue pour répondre à des requêtes particulièrement complexes et articulées.
Google lui-même l’a annoncé sur son blog : « La plus grande avancée de ces cinq dernières années et l’une des plus importantes de l’histoire de la recherche ».
Cet algorithme parvient à comprendre, mieux que ne le faisait Hummingbird, la longue traîne en analysant l’ensemble du contexte et en contemplant les relations – et les nuances – des mots, plutôt qu’en analysant un par un les composants uniques des phrases.
BERT vise avant tout à comprendre ce que signifient les différentes prépositions dans les requêtes de recherche des utilisateurs, car différentes prépositions indiquent différentes intentions, qui ne peuvent être comprises si l’on se base sur l’analyse de mots isolés, sans tenir compte du sens global de la phrase et de sa construction syntaxique.
Cela est extrêmement bénéfique pour la navigation des utilisateurs, car ils peuvent désormais obtenir du moteur des réponses qu’ils ne pouvaient pas obtenir auparavant, et facilite également l’utilisation d’appareils comme Alexa et Google Home. Pour le référencement, cependant, il sera plus difficile de manipuler l’optimisation par le forçage des mots-clés. C’est-à-dire qu’il s’orientera enfin vers des articles de qualité qui respectent les critères de la langue italienne, en évitant les déformations de phrases pour se positionner à tout prix.
Mais avant Bert, il y a eu trois autres mises à jour du noyau dignes d’intérêt :
Mise à jour de base de mars 2019. Une mise à jour dont Google a donné peu d’informations. En fait, à cette occasion, Google a seulement fait savoir que la mise à jour ne vise pas un secteur spécifique – comme cela s’est produit avec Medic Update – et que tous ceux qui avaient subi une baisse nette ou des pénalités, peuvent seulement continuer à créer un contenu optimisé et de qualité.
Mise à jour de base de juin 2019. Cette mise à jour est la première dans l’histoire de Google à être annoncée avant même son lancement. Là encore, la mise à jour n’a pas touché un secteur spécifique et les baisses de classement ne sont pas imputables à des défauts du site. L’algorithme a ensuite mis en œuvre la manière dont le moteur de recherche interprète les SERP et attribue une pertinence aux sites par rapport aux utilisateurs. Les sites d’actualité en particulier ont été affectés, tandis que les sites sur la santé et la médecine ont regagné du terrain par rapport aux pénalités de 2018.
Mise à jour de septembre 2019. Cette mise à jour est également annoncée à l’avance et met en œuvre l’évaluation qualitative des domaines. Le déploiement n’a duré que quelques jours, à l’issue desquels les sites consacrés à la santé et aux finances ont été défavorisés, suivis par les nouvelles de voyage et les articles sur les animaux domestiques.
Mise à jour de l’algorithme de Google – Annonce de la mise à jour principale de septembre 2019.
Après ces trois algorithmes suivra, en novembre, Google Bert.
En cette fin d’année 2019, il est clair que l’effort de Google pour améliorer la navigation sur le web s’intensifie. Il semble presque y avoir une tentative d’établir un rendez-vous trimestriel pour les mises à jour du noyau dur, avec une annonce précoce de la mise à jour. Mais il est encore trop tôt pour le dire.
Pour tous ces algorithmes, le « remède » reste de continuer à mettre en œuvre votre site avec un contenu de haute qualité et conçu pour répondre aux raisons pour lesquelles les recherches sont faites, ce qui signifie concevoir des ressources – pas seulement des articles – l’utilisation de liens faisant autorité, l’analyse continue du site et éviter l’utilisation de « raccourcis ».
Janvier 2020 Mise à jour du noyau dur – Avec la nouvelle année, Google a également annoncé une nouvelle mise à jour de son algorithme, précisément le 13 janvier.
Les causes de la baisse possible n’ont pas été identifiées ? Et pour détecter les effets significatifs est encore tôt, pour ceux qui ont été pénalisés, Google a mis de disponible une série de questions à se poser pour comprendre si votre site est correct.
Voyons ensemble ce qu’ils sont.
Questions relatives au contenu et à la qualité
Le contenu fournit-il des informations, des rapports, des recherches ou des analyses originaux ?
Le contenu fournit-il une description substantielle, exhaustive ou complète du sujet ?
Le contenu fournit-il une analyse approfondie ou des informations intéressantes qui vont au-delà de ce qui est évident ?
Si le contenu s’appuie sur d’autres sources, évite-t-il simplement de copier ou de réécrire ces sources et apporte-t-il au contraire une valeur ajoutée et une originalité substantielles ?
Le titre et/ou l’en-tête de la page fournissent-ils un résumé descriptif et utile du contenu ?
Le titre et/ou le titre de la page évitent-ils d’être exagérés ou choquants par nature ?
S’agit-il du type de page que vous aimeriez mettre en signet, partager avec un ami ou recommander ?
Vous attendriez-vous à voir ce contenu ou cette référence dans un magazine imprimé, une encyclopédie ou un livre ?
Questions sur l’expertise
Le contenu présente-t-il des informations d’une manière qui donne envie de s’y fier, comme des sources claires, des preuves d’expertise, des informations sur l’auteur ou le site qui le publie, par exemple par des liens vers une page d’auteur ou une page À propos ?
Si vous effectuez une recherche sur le site qui a produit le contenu, aurez-vous l’impression qu’il jouit d’une grande confiance ou qu’il est largement reconnu comme une autorité dans son domaine ?
Ce contenu a-t-il été rédigé par un expert ou un passionné qui démontre clairement le sujet ?
Le contenu est-il exempt d’erreurs factuelles facilement vérifiables ?
Seriez-vous à l’aise pour faire confiance à ce contenu sur des questions liées à votre argent ou à votre vie ?
Questions sur la présentation et la production
Le contenu est-il exempt de problèmes orthographiques ou stylistiques ?
Le contenu a-t-il été bien produit ou semble-t-il bâclé ou précipité ?
Le contenu est-il produit en masse ou sous-traité à un grand nombre de créateurs ou réparti sur un vaste réseau de sites, de sorte que les pages ou sites individuels ne reçoivent pas la même attention ou le même soin ?
Le contenu contient-il un nombre excessif de publicités qui distraient ou interfèrent avec le contenu principal ?
Le contenu s’affiche-t-il bien pour les appareils mobiles lorsqu’il est affiché sur ceux-ci ?
Questions comparatives
Le contenu apporte-t-il une valeur substantielle par rapport aux autres pages des résultats de recherche ?
Le contenu semble-t-il servir les intérêts réels des visiteurs du site ou semble-t-il n’exister que pour quelqu’un qui essaie de deviner ce qui pourrait être bien classé dans les moteurs de recherche ?
Ce qui est évident, c’est le nouveau look que Google a donné à la SERP : la position de l’url est différente et les libellés des annonces sponsorisées sont désormais noirs et en gras.
Dans un premier temps, l’url aurait été précédée par les favicons des sites, mais immédiatement supprimée pour la SERP depuis le bureau, mais pas depuis le mobile.
Pour résumer
Les efforts de Google au cours de la décennie qui vient de s’achever ont été phénoménaux. Le web tel que nous le connaissons aujourd’hui est tel grâce à ce travail constant, basé à la fois sur l’apprentissage automatique – nous permettant de parler (et d’être parfaitement compris) avec le moteur de recherche comme s’il s’agissait d’une personne – et sur la nécessité de toujours garantir la qualité des contenus et la liberté d’expression. Tout cela en tenant à distance les scélérats du référencement et en récompensant ceux qui ont compris les intentions de Google et les ont respectées.
Maintenant nous devons juste attendre le prochain mouvement de Mountain View.
Comment comprendre si votre site a été pénalisé ?
Si vous ne respectez pas les directives émises par Google, votre site peut difficilement échapper à l’œil vigilant de l’algorithme. Parfois, cependant, la sanction arrive même si elle n’est pas méritée. En effet, au bout du compte, Google reste une machine et, dans son travail incessant d’analyse de millions de sites et de mots-clés, lorsqu’il pénalise ou promeut, il le fait mécaniquement.
Mais comment reconnaître une pénalisation de Google ?
Lorsque vous constatez une baisse des visites sur votre site, les options peuvent être les suivantes :
des problèmes techniques qui, s’ils sont solubles, vous permettent de vous rétablir avec peu d’efforts
Des pénalisations algorithmiques qui nécessitent quelques mesures et plus ou moins de temps selon les cas.
Si le site enregistre une baisse soudaine des visites ou des anomalies, il est certain qu’il sera dans le collimateur de Google.
Vous pouvez vérifier le type de pénalisation, qui peut être.. :
Direct, lorsque votre site a fait quelque chose de mal.
Indirecte, lorsqu’un concurrent améliore son classement au détriment de votre site, enregistrant une baisse comprise entre 10 et 30 % des visites.
La situation peut sembler grave, mais il ne faut pas paniquer. Dans ces cas, vous ne pouvez pas faire semblant de ne rien faire, vous devez agir.
Pour savoir comment agir, il faut d’abord analyser la situation, comprendre l’ampleur du problème auquel vous êtes confronté. Notre approche comprend une liste de questions qui permettent de déterminer les causes de la pénalité afin d’élaborer une stratégie qui vous aidera à retrouver votre visibilité.