Notions de base pour faire un audit SEO

Notions de base pour faire un audit SEO

La réalisation d’un audit SEO demande certaines compétences en matière de référencement. Effectivement, une stratégie efficace en référencement naturel passe toujours par l’étude des qualités ainsi que des facteurs freinants et bloquants de votre site web. Il faudrait plusieurs articles pour couvrir la complexité d’un audit SEO complet en fonction des typologies (e-commerce, site éditorial, site de presse, etc..) et du vécu du site. Cet article a pour but de lister et aborder certains fondamentaux aux débutants qui souhaitent auditer leur site au niveau de la partie technique, sémantique popularité.

Aspect technique

Il s’agit de passer en revue différents facteurs liés au site en lui même ainsi qu’au serveur

L’indexation

En premier lieu, il faut penser à vérifier l’indexation des URL. Cela consiste, pour le moteur, à découvrir les pages de votre site (pour ensuite les analyser et les positionner.) Une page non indexée ne pourra pas ressortir dans les résultats de recherche.
Google Search console et les commandes site: / info: vous seront utiles pour vérifier ce point.

Le fichier robots.txt

Lors de la création d’un site web, vous pouvez spécifier des règles de restrictions aux différents bots. Bien que le fichier robots.txt soit parfois négligé par les webmasters, il est toutefois utile pour votre référencement et surtout, peut générer des problèmes si il est mal utilisé.
L’idée principale est d’autoriser le crawl des URL que vous souhaitez faire ressortir dans les SERP et bloquer les pages inutiles au SEO (page contact par exemple, dans la plupart du temps).
Où le trouver? Très simple : monsite.xx/robots.txt

Le fichier sitemap.xml

C’est un fichier XML qui va contenir -logiquement- la liste des URL que vous souhaitez indexer. Il permet aux bots de récupérer facilement les pages et de les parcourir directement sans passer par le site lui même. Pour résumer, c’est un plan du site.
L’url du sitemap peut être indiquée dans le fichier robots.txt et si vous avez Search Console, il faudra la renseigner dans la rubrique dédiée. C’est intéressant d’utiliser SC car on peut visualiser des problématiques d’indexation facilement : différence entre les pages fournies dans le sitemap et les pages indexées.
J’avais eu pas mal de discussions avec Yannick Chastin, sur la déclaration ou non du sitemap dans Google Search Console : d’un côté il permet de faire découvrir facilement à Google les URL d’un site mais d’un autre côté, il agit comme une rustine. En effet, le maillage interne d’un site doit être optimisé afin que Google découvre au mieux les URL (notions de page rank interne, profondeur de clics, etc…). Un maillage interne mal optimisé pour al découverte des nouvelles URL ne se verra plus vraiment à cause de la déclaration du sitemap!

Le temps de chargement

L’optimisation du temps de chargement est un point tout aussi important en SEO. En effet, comme les spiders accordent un crawl budget pour chaque site, le serveur doit être efficace et délivrer la page de manière performante.
Au niveau de l’internaute, la problématique est identique : une page trop longue à charger va favoriser le fait que l’internaute reparte : on veut que ça aille vite quand on surfe!

Comment auditer le temps de chargement d’une page?

De nombreux outils SEO (gratuits et payants) sont à votre disponibilité si vous souhaitez mesurer le temps de chargement de votre page. Vous pouvez utiliser par exemple:

  • PageSpeed Insights de Google : https://developers.google.com/speed/pagespeed/insights/?hl=fr (gratuit)
  • GTMetrics : https://gtmetrix.com/ (gratuit)
  • Pingdom : https://tools.pingdom.com (gratuit)
  • DareBoost : https://www.dareboost.com (payant)

La présence des mots clés dans les URL

Ce critère n’influence quasiment pas le positionnement mais il est toujours intéressant de placer des mots clefs dedans. URL courte et synthétique sont deux conseils qui permettront de limiter certains blocages.
Attention aux changements d’url déjà indexées : pratique à éviter et si vous êtes obligé de le faire, il faut penser à faire des redirections 301. Je vous invite à consulter mon article sur les 301 SEO via .htaccess

Aspect sémantique

C’est un levier beaucoup plus important désormais : il va falloir apporter une attention particulière à la quantité de contenu et à sa qualité (comprendre son optimisation ). Personnellement j’utilise yourtext.guru pour optimiser la sémantique.

Le balise title

La balise <title> est un critère clef sur la partie on-page qui va permettre d’influencer la position de l’url. Elle doit néanmoins répondre à quelques règles notamment au fait d’être composée de 5 à 7 mots en moyenne, contenir les mots clefs importants, mais aussi d’être attractive pour l’internaute et être en lien direct  avec le contenu de votre page.

La balise méta description

La méta description n’influence pas le positionnement mais, comme le texte est affiché dans les SERP, elle peut améliorer le taux de clic. Ce sera en effet la première chose que l’internaute verra dans le résultat de ses recherches, après la balise title.
Cette propriété répond aussi à certaines règles : il faudra faire attention aux nombres de caractères, à la présence des mots clefs et à son attractivité.

Les sous-titres

La structuration de vos pages est aussi une notion à ne pas négliger. Cela permet d’optimiser la compréhension de votre contenu par les internautes ainsi que par les moteurs de recherche.
Vous pouvez aussi utiliser des termes similaires ou encore des synonymes dans vos sous-titres afin d’améliorer la richesse sémantique. Bien qu’il existe jusqu’à 6 niveaux de balises de H1 à H6, l’utilisation de H1, H2 et H3 est souvent suffisante.

L’arborescence de votre site

Lorsque vous créez votre site, il vous faut tenir compte de l’arborescence. C’est en effet un paramètre qui est souvent sous-estimé : le niveau de profondeur d’une page (nombre de clics depuis la page d’accueil) est un critère pris en compte.
A retenir : une page à une profondeur de clic faible aura un avantage, sur ce levier, par rapport à une page avec une profondeur de clic élevée.

Les backlinks

Les backlinks représentent les liens qui pointent vers votre site : ce sont les autres sites sur le web qui font des liens vers vous. Levier très important mais aussi très pénalisable. Google Search console permettra de les lister (lien en DF et en NF) mais il existe aussi des outils payants comme Ahrefs ou Majestic SEO qui permettent de les recenser afin de les analyser.

Il faut distinguer les domaines référents du nombre total de backlinks :

  • 1 site vous fait 1 lien : 1 backlink et 1 domaine referent
  • 1 site de 100 pages vous fait un lien dans son pied de page, sur toutes ses URL : 100 backlinks et 1 domaine référent

Google prend en priorité les domaines référents, car autrement c’est assez simple de détourner l’algorithme artificiellement en faisant des liens sitewide. Attention à garder un aspect naturel et un ratio backlinks / domaines référents “intelligent”.

Nombre de liens liens par page

Vous l’aurez donc compris, un lien vers votre page permet de lui transmettre une partie la popularité de cette dernière. Privilégier les backlinks sur des pages qui n’ont pas / peu de liens sortants.

Jérôme pasquelin - jeromeweb

Entrepreneur et Geek depuis plus de 20 ans.

Entrepreneur et Geek depuis plus de 20 ans.

One Comment

  1. Shazam

    Un autre paramètre facilement auditable et qui influe sur la vitesse du site sont les paramètres de cache activés ou pas. L’info peut être trouvée grâce à des extensions sur chrome ou FF.

Post Comment