Pour assurer le référencement naturel des sites web, les algorithmes des moteurs de recherches s’intéressent autant à la qualité de leurs contenus qu’à leur performance technique. Les professionnels du webmarketing doivent ainsi effectuer un audit régulier des sites dont ils ont la charge afin de détecter et corriger les problèmes techniques avant un déclassement. Les points suivants méritent une attention particulière lors de ce contrôle.
Le chargement complet de chaque page
Lorsqu’une page web contient trop d’éléments, dont certains sont lourds (images, vidéos, liens…), il arrive que Google ne parvienne pas à la charger entièrement. Une vérification s’impose par conséquent pour voir à quoi ressemble la page telle que le moteur l’a indexée. L’outil d’Inspection de l’URL présent sur la Search Console permet de s’assurer du chargement correct et intégral des ressources utiles (CSS et JS essentiels) et la conformité du code HTML généré avec celui affiché sur le navigateur. L’outil sert également à visualiser la page dans des conditions idéales, avec la plus grande quantité possible de ressources chargées.
La performance du site sur mobile
Compte tenu de la multiplication et de l’importance croissante des usages mobiles, Google intègre dans son analyse SEO la compatibilité d’un site sur smartphone ou tablette. Les contenus et les liens doivent être identiques entre les versions desktop et mobile. Cependant, même dans ce cas, la technologie du Responsive Web Design (RWD) entraîne parfois le blocage des ressources nécessaires. Faute de pouvoir afficher les pages avec des feuilles de style complètes, Google peut considérer le site comme incompatible. Heureusement, une fois l’anomalie communiquée par la Search Console, il suffit de tester la page concernée au moyen du test d’optimisation mobile et sa résolution ne pose pas de difficulté majeure.
La conformité de l’affichage entre le navigateur et les outils
Google ne voit pas certaines pages web telles qu’elles sont générées sur le navigateur par le serveur. C’est le cas lorsque ce dernier bloque des outils d’analyse comme les crawlers ou les logiciels SEO. Bien que la même URL soit demandée, le résultat diffère selon l’origine de la requête, ce que Google assimile à une pratique trompeuse. Par exemple, une URL avec une extension « .com » peut rediriger vers une page avec une extension « .com/fr_FR/ », car le navigateur a tenu compte de sa langue et de ses cookies, contrairement à Googlebot.
Les erreurs sur les données structurées
Les métadonnées facilitent la lecture des éléments clés d’une page web par les moteurs de recherche, qui les affichent sous la forme d’extraits enrichis dans leurs résultats. Il reste que différents problèmes peuvent apparaitre :
- Blocage dû à une mauvaise implémentation.
- Affichage de plusieurs prix en raison du balisage du produit principal pour une page de vente où sont également proposés les produits associés (en cross-sell). Google choisit alors au hasard un des prix et l’associe au produit, induisant les internautes en erreur, ou pire, les poussant à renoncer à l’achat.
- Retrait temporaire des extraits enrichis pour le site (effectué « manuellement » par Google), ce qui pénalise celui-ci d’un point de vue visuel par rapport aux concurrents jusqu’à la résolution du problème.
L’accès ouvert aux pages inutiles du site
En particulier sur les plateformes de e-commerce, la multiplicité
des filtres génère une énorme quantité d’URL, dont certaines sont totalement
inutiles en matière de SEO, soit parce que les produits répondant aux critères
sont trop peu nombreux (trop de critères), soit parce que la combinaison des
critères donne la même liste de produits rangés dans un ordre différent.
La Search Console permet de contrôler le nombre de pages
« Valides ». Il convient de surveiller si certaines pages sont
indexées, mais non envoyées (hors sitemap). Lorsque le produit est retiré, sa
page passe automatiquement en HTTP 404 (introuvable), mais sans impact
pour Google.