• Actus

Révélations sur le fonctionnement interne de Google Search

Révélations sur le fonctionnement interne de Google Search

 Points clés

  • Erfan Azimi, PDG de Eagle Digital a dévoilé plus de 2500 pages de de données attribuées à Google.

  • Google reconnaît que certaines informations divulguées sont authentiques, mais affirme que celles-ci manquent de contexte ou sont obsolètes.

  • Google maintient sa politique de ne pas commenter des détails spécifiques relatifs à ses algorithmes de classement.

  • Les professionnels du SEO recommandent de faire preuve de prudence avant de tirer des conclusions hâtives.


Ces informations sont basées sur les déclarations de Google et les analyses de la communauté SEO,
et peuvent ne refléter entièrement la réalité des pratiques internes de Google
.


 

La récente divulgation de plus de 2500 pages de données attribuées à Google a profondément secoué la communauté SEO. Ces documents comprennent des détails techniques sur des systèmes tels que le NavBoost et les données de clics pour évaluer la qualité des résultats de recherche. Qui a divulgué ces informations ? Que contiennent précisément ces documents ? Comment les professionnels du SEO réagissent-ils à ces révélations et que pensent-ils de la pertinence et de l'authenticité de ces informations ? 

Le contenu du Leak Google

Les documents divulgués proviendrait du Content API Warehouse interne de Google. Ils comprennent plus de 2500 pages techniques révèlant plus de 14000 facteurs de classement ainsi que des informations confidentielles sur les algorithmes de classement de Google.

Le Content Warehouse est une plateforme de stockage de documents sur le Google Cloud utilisée par les développeurs pour développer l'IA de Google. Selon les documents divulgués, ce service joue un rôle important dans le fonctionnement de l’algorithme de Google. Il convient de noter que ces documents ne sont pas du code utilisé dans les systèmes de Google, mais un aperçu du fonctionnement de l’algorithme du moteur de recherche.

Les documents ont d'abord été partagés de manière anonyme par Erfan Azimi, PDG d'EA Eagle Digital. Quelques jours plus tard, Azimi a révélé son identité et a affirmé que ces documents mettraient en lumière certaines pratiques internes de Google, en contradiction avec ses déclarations publiques. Toujours selon Azimi, ils auraient été authentifiés par d'anciens employés de Google. Parmi les révélations les plus marquantes, plusieurs points essentiels émergent :

PageRank modifié et son impact sur le classement

Le PageRank est un algorithme conçu pour évaluer l’autorité des pages web en analysant les liens entrants. La documentation de Google ayant fait l'objet de la fuite laisse entendre que le PageRank dans sa forme originale est depuis longtemps obsolète et remplacé par le PageRank-NearestSeeds, soit un PageRank qui se base sur le noyau de réseau le plus proche. Cette variante aide Google à évaluer la pertinence des pages au sein de groupes de contenu spécifiques et est également utile pour catégoriser les pages de faible qualité ou les sujets de niche.

La métrique d'autorité de Site SiteAuthority et Host NSR

Malgré les dénégations publiques de Google, les documents divulgués confirment l’existence d’une métrique appelée “siteAuthority”. Cette métrique mesure l’autorité ou l’importance d’un site web pour des sujets spécifiques et joue un rôle important dans la détermination des classements de recherche.

“siteAuthority” fait partie d’un système plus large qui évalue la qualité globale d’un site web, en tenant compte de divers facteurs tels que la qualité du contenu, l’engagement des utilisateurs et les profils de liens.

Une autre métrique significative révélée dans la fuite est le Host NSR (Host-Level Site Rank), qui calcule les classements au niveau du site en fonction de différentes sections ou “morceaux” d’un domaine. Cette métrique souligne l'importance de maintenir un site de haute qualité sur l'ensemble de ses pages.

NavBoost : Analyse des interactions utilisateurs et résultats de recherche

Parmi les révélations SEO, on trouve des détails sur NavBoost, un système qui utilise des données de clics pour ajuster les résultats de recherche. Cela contredit les déclarations antérieures de Google, qui affirmait ne pas utiliser les clics comme signal direct pour le classement des pages.

NavBoost est un algorithme qui optimise les résultats de recherche en analysant les interactions des utilisateurs avec les résultats. Il se distingue donc des autres indicateurs de classement en mettant l’accent sur les clics des utilisateurs.

NavBoost fonctionne en enregistrant et analysant les clics des utilisateurs et d’autres signaux comportementaux. Cela permet à Google d’étudier les comportements de navigation des utilisateurs sur une longue période et de comprendre quelles pages répondent le mieux aux requêtes des utilisateurs. L’objectif principal de NavBoost est d’améliorer l’expérience utilisateur en fournissant des résultats de recherche plus pertinents et précis, en particulier pour les requêtes de navigation où l’utilisateur cherche un site ou une page spécifique. Lorsque les utilisateurs effectuent des recherches et cliquent sur des résultats, ces interactions sont enregistrées et analysées par NavBoost. Voici quelques étapes clés du processus :

  • Collecte des clics : Chaque fois qu’un utilisateur clique sur un résultat de recherche, cette action est enregistrée. NavBoost conserve ces données pour toutes les requêtes effectuées au cours des 13 derniers mois.Analyse des comportements : NavBoost examine les taux de clics (CTR), les comportements de navigation, la qualité des sites et la pertinence contextuelle. Par exemple, si une page reçoit de nombreux clics pour une certaine requête et que les utilisateurs passent du temps sur cette page sans revenir rapidement aux SERP (pogosticking), cela indique que la page est pertinente et de qualité.
  • Segmentation des données : NavBoost crée des ensembles de données distincts pour les recherches mobiles et desktop, ainsi que pour les différentes localisations géographiques. Cela permet d’ajuster les résultats de recherche en fonction du contexte de l’utilisateur.
  • Intégration avec d’autres algorithmes : Bien que NavBoost soit un indicateur important, il fonctionne en conjonction avec d’autres algorithmes et indicateurs de classement de Google. Par exemple, des systèmes comme “Glue” analysent d’autres interactions utilisateurs sur la page, telles que les défilements et les survols.

Ces révélations incitent à une réflexion plus approfondie sur les mécanismes de classement et les pratiques de référencement. Celles-ci montreraient également que Google utiliserait des données provenant des navigateurs Chrome pour évaluer l’autorité des sites.


 La réponse de Google

Google a officiellement reconnu que certains documents internes récemment divulgués en ligne sont authentiques. Cependant les signaux de classement évoluent constamment et de nombreuses hypothèses basées sur ces données sont incorrectes ou obsolètes.

Par ailleurs, Google se doit de maintenir une politique de non-commentaire sur les détails spécifiques des algorithmes de classement. En effet, dévoiler trop d’information pourrait porter préjudice à l’intégrité des résultats de recherche contre toute manipulation malveillante.

Cependant, cette divulgation a mis Google dans une position délicate. Avec tant de spéculations et d’argumentations autour des fichiers divulgués, la firme de Mountain View pourrait hésiter à révéler de nouveaux détails sur son moteur de recherche et ses processus de classement.


 

Les professionnels du SEO ont réagi avec une certaine prudence aux révélations. Bien que la quantité et la nature des informations divulguées soient impressionnantes, de nombreux experts recommandent une analyse minutieuse avant de tirer des conclusions définitives. Cette prudence est en partie due à la comparaison avec une fuite similaire de Yandex survenue quelques mois auparavant, qui avait également suscité de nombreuses spéculations sans apporter de changements significatifs dans les pratiques SEO.

Analyse et interprétation des documents

Les documents mentionnent plusieurs pratiques de Google qui semblent contredire les déclarations officielles de l'entreprise. Par exemple, bien que Google ait toujours affirmé ne pas utiliser le "domain authority" (DA) comme facteur de classement, les documents montrent l'existence de "SiteAuthority", une métrique interne influençant le classement des pages. De plus, contrairement aux affirmations de Google selon lesquelles les clics ne sont pas utilisés pour classer les SERP, le système NavBoost semble entièrement basé sur les signaux de clics, soulignant l'importance des comportements utilisateurs dans les résultats de recherche.

Les documents révèlent également des éléments nouveaux et inattendus, comme la capacité de Google à extraire plus de 300 méta-données sur les images, la classification de certaines pages comme "golden" en raison de leur valeur, et la désignation de certains sites comme "Gobi" lorsqu'ils font autorité dans leur catégorie.

Les spéculations et hypothèses abondent également sur les systèmes de rétrogradation et les indicateurs spécifiques mentionnés dans les documents. Par exemple, le terme "baby panda" pourrait se référer à un signal de qualité complémentaire à l'algorithme Panda, tandis que des scores spécifiques YMYL (Your Money Your Life) semblent affecter les pages traitant de sujets médicaux, financiers, juridiques, sécuritaires, économiques, officiels, et légales. Les page YMYL comprennent également les pages des sites e-commerce incluant une page de paiement en ligne.

Bien que la fuite de ces documents ait fourni des aperçus fascinants sur les pratiques internes de Google, les experts SEO insistent sur la nécessité de contextualiser et d'analyser ces informations avant de les intégrer dans leurs stratégies de référencement.

Actions envisagées par les experts SEO pour valider les informations

Il est donc question aujourd’hui d’analyser minutieusement des documents fuités afin de comprendre en profondeur les mécanismes sous-jacents de l'algorithme de Google. Cela implique l'examen des modèles de pondération, des critères de classement et des stratégies de dégradation algorithmique révélées dans les documents.

  • Tests et Expérimentations : Pour valider les informations divulguées, les experts en référencement auront besoin de mener des tests et des expérimentations sur leurs propres sites web. Cela leur permettra de déterminer dans quelle mesure les pratiques recommandées par Google correspondent aux mécanismes réels de l'algorithme.
  • Collaboration et Partage d'Informations : Les professionnels du SEO envisagent également de collaborer étroitement avec leurs pairs et d'échanger des informations sur leurs découvertes et leurs expériences. Cette collaboration peut aider à consolider les connaissances et à élaborer des stratégies efficaces pour s'adapter aux changements potentiels dans le paysage du référencement.

Impact potentiel sur les stratégies de référencement et les pratiques SEO.

Le leak de Google pourrait avoir un impact significatif sur les stratégies de référencement et les pratiques SEO à plusieurs niveaux :

  • Adaptation des Stratégies de Contenu : Les révélations concernant l'importance des clics longs, des données de navigation et des signaux de qualité pour le classement pourraient conduire à une adaptation des stratégies de création de contenu. Les professionnels du SEO pourraient accorder une attention accrue à la qualité et à la pertinence du contenu pour optimiser le taux de rétention et l'engagement des utilisateurs.
  • Optimisation Technique : Comprendre les mécanismes de classement révélés dans le leak peut inciter les praticiens du SEO à apporter des ajustements techniques à leurs sites web. Cela pourrait inclure des optimisations pour améliorer la vitesse de chargement, l'expérience utilisateur et la compatibilité mobile, entre autres.
  • Évaluation des Stratégies de Netlinking : Les informations sur la pondération et le classement des liens pourraient entraîner une réévaluation des stratégies de netlinking. Les professionnels du SEO pourraient rechercher des moyens de renforcer l'autorité de leur domaine tout en respectant les directives révélées dans les documents fuités.
  • Importance de Croiser les Informations avec d'Autres Sources
    Face à aux révélations du leak de Google, il est essentiel pour les professionnels du SEO de ne pas tirer de conclusions hâtives et croiser les informations divulguées avec d'autres sources crédibles. Cette approche permettra de confirmer la véracité des informations révélées, de mieux comprendre les pratiques internes de l'entreprise et d'anticiper les éventuelles évolutions de l'algorithme de recherche.


Au final, seules les actions entreprises par les professionnels du SEO pour tester, valider et s'adapter aux nouvelles informations joueront un rôle crucial dans la manière dont les stratégies de référencement évolueront à l'avenir. 

Pour optimiser votre stratégie SEO, contactez SIWAY, Agence Digitale 360. Nos experts sont prêts à vous aider, travaillez avec nous pour rester à la pointe du référencement!

Cet article vous a plu ?
Laissez-nous votre email pour recevoir les prochains
Invalid Input

Plus d'info? Contactez-nous!

Tous les champs ci-dessous sont obligatoires

Invalid Input

Merci de cocher cette case