L’audit technique SEO consiste à analyser tous les éléments du site afin d’éliminer le maximum d’obstacles à son exploration et son indexation par les moteurs de recherche.
L’audit technique comprend par exemple l’analyse de la vitesse de chargement, de l’architecture du site (fil d’Ariane, navigation, hiérarchie), du balisage HTML, de la gestion multilingue, etc.
La technique est l’un des 3 piliers du SEO (technique, sémantique, popularité). C’est le pilier qui peut avoir un impact très important très rapidement.
Vous souhaitez progresser en marketing sur d’autres sujets ? 👉🏻 Retrouvez notre formation marketing complète |
Quand mener un audit technique SEO ?
- Si le site a peu de contenu (site récent, par exemple), on peut commencer par l’audit technique.
- Si le site a beaucoup de contenu, il vaut mieux commencer par l’audit de contenu (pour ne pas avoir à auditer techniquement des pages sans intérêt, que l’on pourrait avoir supprimées à l’issue de l’audit sémantique).
Les outils nécessaires à l’audit technique 🛠️
- un accès Google Search Console (l’outil indispensable)
- un accès à un crawler, comme Screaming frog (pour connaître notamment le nombre d’URLs à auditer)
- un accès GTMetrix (pour savoir si le chargement est suffisamment rapide)
- l’extension Chrome SEO info » qui permet de voir en un coup d’oeil si une page respecte les bonnes pratiques Google
- l’extension Wappalyzer pour connaître la technologie utilisée sur le site
Avant de lancer l’audit technique
- Utilisez le site comme un utilisateur humain : parcourir les pages, tester les parcours. Cela vous permettra de comprendre le site en tant qu’utilisateur, pas en tant qu’analyste. Cela permet notamment de comprendre quelles sont les pages importantes.
- Identifiez les templates du site : homepage, articles de blog, pages produit, page de catégories, etc.
On utilise pour cela un crawler, qui va agir comme les crawler. Le crawler le plus connu est Screaming frog.
1re étape : analyser les performances du site sur la Google Search Console
Pourquoi utiliser la Google Search Console ?
La Google Search Console (GSC) est le premier outil dont il faut se servir lors d’un audit SEO.
La Search Console fournit des données cruciales directement de Google sur l’indexation et le classement de votre site. Elle montre les requêtes pour lesquelles vous apparaissez, les problèmes techniques comme les erreurs 404, les données sur les clics et le positionnement, et permet de demander une réindexation. Grâce à son API, ses données peuvent être extraites pour une analyse approfondie. C’est l’outil le plus complet pour auditer la visibilité de votre site dans les résultats de recherche Google.
Elle fournit notamment des informations sur :
- état de l’exploration
- état de l’indexation
- robots.txt
- sitemap.xml
- existence de pénalités manuelles
Les points à vérifier avec la GSC (synthèse)
Voici la liste des points qu’il faut vérifier sur la Search Console dans le cadre d’un audit technique :
- Est-ce que le site est configuré dans Google Search Console?
- Est-ce que l’état de l’indexation montre des anomalies
- Le site rencontre t-il des erreurs d’exploration (Crawl)?
- Est-ce que le site rencontre des anomalies au niveau statistiques de crawl par GoogleBot?
- Est-ce que la/les sitemap(s) sont listées dans la Google Search Console?
- Est-ce que la/les sitemap(s) possèdent des « Erreurs » ou « avertissements »?
- Y’a t-il des problèmes d’indexation pour ce(s) sous-domaine(s)?
- Est-ce qu’une propriété Google Search Console par site (donc par pays) a bien été créé?
- Est-ce qu’un pays cible est défini dans Google Search Console pour chaque site?
- Est-ce que Google Search Console a détecté des erreurs relatives à la balise Hreflang?
- Est-ce que le site a reçu une pénalité de type « Action manuelle » par la Search Quality Team de Google
- Est-ce que le site a des suggestions d’améliorations?
- Le site possède t-il des problèmes de sécurité?
GSC – vérifier l’indexabilité
GSC – vérifier le fonctionnement du Robots.txt
- Est-ce que le fichier robots.txt possède des “Erreurs” ou “Avertissements”?
- Est-ce que le site possède des pages bloquées non intentionnellement par robots.txt ?
- Est-ce que le site possède des ressources non intentionnellement bloquées par robots.txt ?
GSC – vérifier la/les sitemaps
- Sont-elles listées dans la GSC ?
- Ont-elles des erreurs ou avertissements ?
GSC – pénalité manuelle
- Est-ce que le site a des suggestions d’amélioration ?
Les performances
- Search Console mobile et bureau
- Page Speed Insight
- Site performance test (résultat web page tet et GTmetrix)
- Erreurs dans la console
- Temps de réponse DNS (résultats GT Metrix, WebPageTest et Pingdom)
- Temps de chargement Waterfall
- Time to first Byte (TTFB)
- Taille de la DOM (Document Object Model) : résultat d’interprétation du code HTML par le navigateur
2e étape : analyser les performances du site avec Screaming Frog (SF)
Les codes de réponse
Voici un paragraphe de 100 mots sur l’analyse des codes réponses HTTP dans le cadre d’un audit SEO:
L’analyse des codes réponses HTTP est une étape cruciale de l’audit SEO d’un site web. Elle permet de détecter d’éventuelles erreurs empêchant le bon référencement des pages. On cherche notamment
Les codes 404 ou 4XX (erreur critique)
les codes 404 qui signalent des pages introuvables, source de mauvaise expérience utilisateur. Pour les corriger, il faut rediriger les URLs des pages 404 vers d’autres contenus, en essayant de mener vers une page qui est la plus proche en termes de contenu (nouveau produit par exemple, ou catégorie de produit ou la homepage si pas d’autres solutions)
Les codes 500 ou 5XX (erreur critique)
les codes 500 indiquent des erreurs serveur qui peuvent impacter le crawl des moteurs de recherche. Pour corriger, réparer techniquement les erreurs serveur 500.
Les codes 300 ou 3XX (optimisation)
Les redirections 301 sont utilisées lorsqu’une page web change d’URL pour rediriger automatiquement les visiteurs et les moteurs de recherche vers la nouvelle adresse. Bien que allongeant légèrement le temps de chargement, elles sont cruciales en SEO car elles transfèrent la valeur SEO de l’ancienne page vers la nouvelle.
Pour un impact positif, il est recommandé de
- limiter leur nombre,
- ne rediriger que les pages supprimées,
- vérifier leur fonctionnement régulièrement
- les mettre en place le plus tôt possible avant la suppression d’une page.
Les 301 doivent être utilisées avec parcimonie et intelligence pour offrir la meilleure expérience tant aux visiteurs qu’aux moteurs de recherche.
Idéalement, toutes les pages doivent retourner un code 200 OK, synonyme de page accessible et correctement indexée.
Les pages en noindex
Qu’est-ce qu’une page en noindex ?
Une page noindex est une page qui est exclue de l’indexation par les moteurs de recherche. Concrètement, cela signifie que la page ne sera pas référencée et ne pourra pas apparaître dans les résultats de recherche.
Techniquement, le noindex est obtenu de deux façons :
- En ajoutant une balise meta name= »robots » content= »noindex » dans le code source de la page.
- En ajoutant la directive « Disallow: » dans le fichier robots.txt du site pour bloquer l’accès des robots d’indexation à certaines pages ou répertoires.
Le noindex est utile pour bloquer l’indexation de pages non pertinentes (erreurs 404, pages de recherche, duplicatas de contenu, etc.) afin d’éviter de polluer les résultats de recherche. Cela permet aussi de garder certains contenus confidentiels hors de portée des moteurs.
Comment une page se retrouve en noindex ?
Une page peut se retrouver en noindex, c’est-à-dire bloquée de l’indexation par les moteurs de recherche, pour différentes raisons :
- Le webmaster a volontairement ajouté la balise noindex via le code source ou le fichier robots.txt pour empêcher l’indexation.
- Il s’agit de pages avec du contenu dupliqué, de pages d’erreur 404, de pages de recherche, de pages de confirmation de commande, etc. Le noindex évite d’avoir des contenus non pertinents dans les SERP.
- La page a été temporairement déindexée suite à un algorithme de Google (Panda, Pingouin, etc.) à cause de contenus de mauvaise qualité.
Que faire pour corriger les pages noindex ?
- Vérifier que le noindex est volontaire et cohérent avec la stratégie de l’entreprise. Sinon, supprimer la balise ou l’instruction dans le robots.txt.
- Pour les pages dupliquées, garder celle qui sera la plus pertinente pour les visiteurs et déindexer les autres.
- Les pages d’erreur 404 doivent être redirigées vers une page existante grâce à des redirections 301.
- Revoir la stratégie de contenu et améliorer la qualité des pages déindexées temporairement pour demander un réindexage à Google.
- S’assurer que seules les pages non pertinentes soient déindexées pour ne pas perdre de trafic sur des contenus importants.
Les URLs canonisées
Listez les URLs canonisées présentes sur votre site internet. Elles méritent peut être d’être remplacées ou supprimées afin d’optimiser votre budget crawl.
Les pages orphelines
Une page orpheline est une page qui existe sur le site mais qui n’est pas reliée aux autres par un lien. En tout cas pas par un lien visible par les moteurs de recherche.
Une page peut être orpheline pour plusieurs raisons
- vous n’avez pas maillé cette page au moment de la créer
- vous aviez créé des liens depuis une page A mais avez supprimé cette page A
- les pages qui lui font des liens sont désormais bloqués au crawl (par le fichier robots.txt)
- les pages qui lui font des liens (ou les liens eux-mêmes) sont gérées ou accessibles par Javascript, ce qui n’est pas lisible par Google
Le problème des pages orphelines est que sans lien, elle perde de leur puissance pour le référencement :
- elle ne reçoit pas de popularité (PageRank) par vos liens internes
- en l’absence de maillage interne, son optimisation chute
- les internautes la trouvent avec difficulté sur le site
- elle est moins souvent crawlée par les moteurs
Comment trouver les pages orphelines ? Grâce à un audit de sitemaps sur Myranking metrics.
Le niveau de profondeur
Les images
Les balises
3e étape : analyse des temps de chargement
L’impact du temps de chargement sur votre SEO
Le temps de chargement est un point fondamental pour l’expérience client. C’est pour cela qu’il a un impact important sur votre référencement : si vos pages mettent trop de temps à charger, l’utilisateur quittera votre site pour en chercher un plus fonctionnel.
Quels outils pour mesurer le temps de chargement ?
Vous pouvez mesurer les performances de vos différentes pages importantes avec les outils GTmetrix et PageSpeed Insights (outil de Google).
Sur Page Speed, l’idéal est d’atteindre un score de minimum 80/100 en mobile et 100/100 en desktop.
Comment optimiser le temps de chargement de votre site ?
GTmetrix et PageSpeed Insights fournissent pléthore de recommandations pour améliorer votre score.
De manière générale, voici quelques recommandations pour un site web rapide :
- Avoir un serveur performant (oubliez les 1ers prix des grands distributeurs type OVH ou Ionos)
- Avoir un système de cache (les plus connus sont WP rocket sur WordPresse)
- Optimiser et minifier les fichiers CSS et Js
- Réduire le poids des médias (je vous conseille de passer les images dans des formats web comme webp ou Avif)
Nom de domaine
- Google Bot : passage du bot et budget crawl
Crawl
- Comparaison du crawl user agent
Pénalité Google Search Console
Sécurité
- Test redirection https
- Test contenu mixte (http et https)
- Test certificat SSL (résultat Digicert et SSL labs)
- Test TLS
Code erreurs
- erreurs 3XX
- erreurs 4XX (dans Screaming Frog et dans la Search Console)
- erreurs 5XX
Pagination
Liens sortants
- par page
- en erreur
Structure des URLs
- espaces
- majuscules
- permaliens canonical (liens canonisés, URL canonique autoréférente)
Robots.txt
- Blocage
- Rendu : résultat screaming frog
Sitemap.xml
- blocage
- check Google Search Console
Images
- Poids
- Format
CSS et JS
- pourcentage d’utilisation