Sommaire
- Pourquoi cette fuite de données est-elle un coup de tonnerre dans le monde du SEO?
- 11 informations clés à retenir sur les facteurs de classement de Google
- 1) Les données de clics sont essentielles pour votre classement sur Google
- 2) Trois niveaux d’évaluation des pages en fonction des clics
- 3) L’importance des données de Chrome dans les facteurs de classement
- 4) Des listes blanches pour les requêtes sensibles
- 5) Collecte des données sur les auteurs
- 6) Les dates de vos publications passées au crible
- 7) Un nombre de tokens limité par contenu publié
- 8) Les backlinks sont toujours d’actualité
- 9) Des scores de pertinence basés sur les évaluations humaines
- 10) L’existence de la sandbox
- 11) Des pénalités de l’algorithme Google identifiées
- Quels impacts du leak SEO de Google sur ma stratégie de référencement?
Le 5 mai 2024, une source anonyme a divulgué des milliers de documents internes provenant de l’équipe de recherche de Google.
Ces documents ont révélé non pas un, ni deux mais 14 000 facteurs de classements de l’algorithme Google! 👀
Une lecture de chevet qui a captivé notre agence SEO.
Alors, pour vous permettre de comprendre le leak SEO de Google sans avoir à décortiquer des milliers de pages de code: voici un résumé des 11 points clés à retenir pour tout connaître des facteurs de classement de l’algorithme Google.
Pourquoi cette fuite de données est-elle un coup de tonnerre dans le monde du SEO?
Les plus de 2500 documents internes qui ont fuité sont une mine d’informations cruciales permettant de lever le voile sur de nombreuses hypothèses émises par les experts SEO depuis des années sur les critères de positionnement de l’algorithme Google.
Bien que les documents ne révèlent pas le poids exact de chaque facteur de classement du moteur de recherche, la quantité d’informations fournie nous permet de pouvoir lister avec plus de certitude les éléments nécessaires pour atteindre la première position sur Google.
Pour faire simple, on a la plupart des ingrédients, mais pas la recette complète de l’algorithme Google🧑🍳.
Certaines informations des systèmes de classement dévoilées et analysées par des experts en référencement comme Rand Fishkin et Mike King contredisent certaines annonces publiques de Google via ses porte-paroles, ajoutant une twist intrigante à cette fuite.
“Cette fuite de documents révèle une fois de plus qu’il est difficile de croire Google sur parole, soulignant l’importance de l’esprit critique et de la vigilance dans le monde du référencement.”
– Florian Valloire, Stratège SEO Sénior chez Digitad
Voici la réaction de Rand Fishkin sur les réseaux sociaux:
Passons au décryptage des informations secrètes révélées par ces documents internes ⬇️
Quels sont les signaux de classements révélé par le leak SEO de Google?
11 informations clés à retenir sur les facteurs de classement de Google
1) Les données de clics sont essentielles pour votre classement sur Google
Un simple clic de souris peut influencer le classement de votre page sur Google.
Le nombre de clics sur un lien dans les résultats de recherche permet à Google de définir si la page intéresse les utilisateurs ✅
D’où l’importance de votre CTR (Click-Through Rate): le taux de clics sur votre page dans les résultats de recherche (SERP) est un indicateur clé de pertinence et de popularité pour vos contenus.
Petit rappel sur le CTR:
💡 Avis à tous ceux qui à la suite de la lecture cet article vont cliquer frénétiquement sur leurs liens dans les résultats de recherche.
Google ne prend pas en compte uniquement le nombre de clics, mais également:
- Le temps passé sur la page après un clic: les clics longs, où l’utilisateur passe beaucoup de temps sur la page, sont un bon signal pour Google ✅. À l’inverse, les clics courts montrent que l’utilisateur est insatisfait ❌
- La date du dernier clic de bonne qualité: cela contribue à évaluer la pertinence actuelle de la page.
- La provenance des clics sur chaque lien: Google analyse également l’origine du trafic organique et le type d’appareil utilisé pour juger de leur fiabilité.
- Le nombre de clics écrasés: provenant de sources non fiables inconnues de Chromes qui pourraient être des bots par rapports aux clics non écrasés provenant d’appareils vérifiables
2) Trois niveaux d’évaluation des pages en fonction des clics
L’algorithme de classement de Google classe les pages en trois niveaux de qualité selon les clics des utilisateurs reçus et leur comportement:
- Qualité élevée: Beaucoup de clics d’appareils vérifiés par Chrome
- Qualité moyenne: Certains clics proviennent d’appareils non vérifiables
- Qualité faible: Peu ou pas de clics, pas d’interactions des utilisateurs, le lien est ignoré
3) L’importance des données de Chrome dans les facteurs de classement
Dans une ère post-cookies, les documents du leak SEO révèlent que les données de clics proviennent principalement du navigateur Chrome.
Le système NavBoost intégré à Chrome aide à obtenir des données précieuses sur le parcours utilisateur.
Ce système a été développé pour améliorer la qualité des résultats de recherche.
4) Des listes blanches pour les requêtes sensibles
Les documents révélés par le leak SEO indiquent que Google applique des “listes blanches” pour certains secteurs sensibles afin de garantir la fiabilité des résultats de recherche.
Parmi les secteurs concernés figurent:
- Les informations sanitaires (utiles notamment pendant la période de Covid-19)
- Les informations liées aux élections
- Les sites de voyages (oui, il est très important pour Google que vous ne loupiez surtout pas vos vacances 😉)
Même si cela semble surprenant, les sites de voyage sont inclus, car ils nécessitent des informations précises et actualisées pour les voyageurs.
Qu’est-ce qu’une liste blanche?
Une liste blanche (ou “whitelist”) est un ensemble de sites web que Google considère comme particulièrement fiables pour des requêtes spécifiques.
Les sites figurant sur ces listes bénéficient d’un traitement préférentiel. Ils ont plus de chances d’apparaître en tête des résultats de recherche dans leur secteur d’activité.
Voyez ça un peu comme les invités VIP de Google sur la S.E.R.P. (Search Engine Results Page) 💃
Pourquoi les whitelists sont-elles importantes pour Google?
- Fiabilité des informations: en période de crise sanitaire ou lors d’élections, les listes blanches permettent à Google de promouvoir des sources fiables et de limiter la propagation de fausses informations
- Qualité des résultats: pour les domaines sensibles, la qualité et la précision des informations sont essentielles. Les filtres de qualité associés aux listes blanches avec un niveau de confiance élevé garantissent que seuls les sites respectant des standards élevés de pertinence sont mis en avant
5) Collecte des données sur les auteurs
Bien que le critère EEAT (Expérience, Expertise, Autorité et Fiabilité) soit souvent mis en avant par Google, il n’est pas mentionné directement dans les documents divulgués par le leak SEO.
Cependant, la fuite révèle que l’algorithme de Google analyse les informations relatives aux auteurs pour évaluer la qualité et la fiabilité des contenus publiés.
- Identification de l’auteur: Google examine si un auteur est identifié sur une page, ce qui peut inclure un lien vers un profil LinkedIn, une certification, des biographies des auteurs
- Amélioration de l’Expérience Utilisateur: Bien que Google ait précédemment affirmé que les pages d’auteurs visaient principalement à améliorer l’expérience des visiteurs, cette transparence peut également renforcer la crédibilité perçue du contenu
- Rôle de l’expertise et de l’autorité: La présence d’un auteur reconnu avec des expériences vérifiables (notamment des publications disponibles sur le web) peut indirectement influencer la confiance accordée à une page par les utilisateurs, et potentiellement, par les algorithmes de Google
La présence d’un auteur réel reconnu sur vos contenus web peut donc influencer le positionnement de votre site web sur Google en envoyant des signaux de qualité, d’où l’importance de créer une page auteur la plus détaillée possible (si votre auteur est ChatGPT, ce n’est pas la peine de lui créer une page auteur 🙃).
Voici par exemple ma page auteur disponible sur le site de Digitad:
6) Les dates de vos publications passées au crible
Les critères de classement visent à favoriser les contenus récents dans les résultats de recherche.
Pour cela, l’algorithme de Google utilise plusieurs critères pour déterminer avec un maximum de certitude la date de publication de votre contenu ⬇️
- URL: la date contenue dans l’URL de votre page
- Balise Titre: la date indiquée dans le titre de votre page
- Bylinedate: la date de publication de la page
- Syntacticdate: la date indiquée dans les données structurées de l’article
- Semanticdate: les dates contenues dans votre texte
En bref, Google essaye de vérifier la correspondance exacte de votre contenu avec sa date de publication en vérifiant que toutes les informations fournies sont cohérentes.
Changer simplement la date de publication de votre article ou mettre à jour votre titre en changeant la date en début d’année ne bernera pas l’algorithme de classement de Google (dommage, il va falloir vraiment mettre à jour vos contenus régulièrement) 😉
Pour vous inspirer, sur notre blogue, nous indiquons la première date de publication de l’article de blogue ainsi que la dernière date de mise à jour de l’article:
7) Un nombre de tokens limité par contenu publié
Google limite le nombre de tokens pris en compte pour un document.
Qu’est-ce qu’un token?
Un token est la plus petite unité de texte, comme un mot ou un symbole, utilisée par Google pour analyser et indexer les contenus.
Par exemple: dans la phrase “J’aime le chocolat”, chaque mot et symbole de ponctuation peut être considéré comme un token.
Voici comment la phrase est décomposée en 4 tokens:
- “J'”
- “aime”
- “le”
- “chocolat”
Placez les informations importantes dans la première partie de vos textes
Optimiser l’emplacement des informations importantes peut améliorer le classement de vos contenus.
Le fait que Google limite le nombre de tokens pris en compte pour un document signifie que les informations clés de votre contenu doivent être placées au début du texte pour être sûr qu’ils soient pris en compte.
8) Les backlinks sont toujours d’actualité
Les backlinks restent importants aux yeux de Google d’après le leak SEO 👀. De quoi contredire les avis tranchés de certains experts en référencement qui considérait qu’obtenir des backlinks n’était plus une stratégie efficace.
Ils continuent de jouer un rôle dans le classement des pages.
Les documents révèlent que les liens provenant d’articles récents bien positionnés dans les résultats de recherches qui attirent des clics auront plus d’influence sur le classement de la page recevant le lien.
💡 Cela peut sembler évident, mais cette information doit absolument influencer votre stratégie de backlinks. Il est plus bénéfique de rechercher des liens depuis des articles récents et bien classés plutôt que de se tourner vers des articles historiques de blogs.
Si vous souhaitez créer des backlinks de qualité sur votre site web, contactez notre agence de netlinking!
9) Des scores de pertinence basés sur les évaluations humaines
Derrière le moteur de recherche de Google, il n’y a pas qu’un algorithme. Google utilise également des évaluations humaines pour déterminer la pertinence des documents. Des évaluateurs humains jugent manuellement la qualité et la pertinence de certaines pages, et ces évaluations sont intégrées dans les systèmes de recherche.
D’où l’importance de rédiger pour les robots d’indexation de Google, mais surtout pour les humains! 😉
10) L’existence de la sandbox
Google a longtemps nié l’existence d’une sandbox affectant les nouveaux sites, mais les documents divulgués révèlent le contraire. Un attribut nommé « hostAge » confirme que Google utilise effectivement un mécanisme de sandbox pour traiter les sites récents et potentiellement frauduleux.
Qu’est-ce que la sandbox?
La sandbox est un filtre qui limite temporairement la visibilité des nouveaux sites web dans les résultats de recherche. L’objectif est de donner à Google le temps de vérifier la qualité et la légitimité des nouveaux sites avant de leur accorder une visibilité dans les résultats de recherche.
Pourquoi ce mécanisme est-il important?
En plaçant les nouveaux sites dans une sandbox, Google peut observer leur comportement sur une période de temps pour s’assurer qu’ils ne sont pas des sites de mauvaise qualité
11) Des pénalités de l’algorithme Google identifiées
Les documents internes révélés par le leak SEO révèlent certains comportements pénalisés par Google dans les classements des résultats de recherche:
Voici le tableau récapitulatif:
Facteur | Impact sur le classement des pages |
Mauvaise expérience utilisateur | Une page avec une mauvaise expérience utilisateur peut être rétrogradée. |
Dégradation des avis sur les produits | Les pages avec de mauvais avis sur les produits peuvent être pénalisées. |
Signaux de spam | Des pratiques de spam évidentes sont pénalisées, comme des ancres de liens qui ne correspondent pas au contenu du site (un backlink de mauvaise qualité). |
Correspondance exacte d’un nom de domaine avec les requêtes utilisateurs | Le nom de domaine peut être dévalorisé par l’algorithme. |
Résultats locaux | Les résultats locaux (de sites locaux) peuvent être favorisés par rapport aux résultats généraux. |
Quels impacts du leak SEO de Google sur ma stratégie de référencement?
La principale leçon de cette fuite de données est l‘importance de mettre en ligne du contenu de qualité dans une ère où de plus en plus d’articles disponibles sur le web sont rédigés avec l’Intelligence Artificielle.
Google valorise particulièrement les contenus rédigés par des auteurs reconnus, plutôt que 100% par des I.A. Montrer que vos articles sont rédigés par un auteur humain, certifié ainsi que la mise à jour régulière de vos contenus est un gage de qualité aux yeux de l’algorithme.
L’importance des clics de qualité sur vos pages dans les résultats de recherche témoigne de l’importance de maximiser vos efforts pour améliorer l’expérience utilisateur sur votre site internet en créant des contenus engageants.
Confiez votre stratégie SEO aux experts de Digitad
La révélation de milliers de facteurs de référencement avec le leak SEO de Google nous offre une opportunité unique d’optimiser les stratégies de référencement de nos clients.
En adaptant constamment nos stratégies d’optimisations aux dernières évolutions du monde sur référencement naturel, nous pouvons vous aider à atteindre vos objectifs de visibilité en ligne.
Contactez-nos experts et discutons de votre projet!