Formation SEO Watussi avec Jean Benoit Moingt

J’ai participé en début d’année à la formation Watussi dispensée par Jean Benoit : c’est du lourd!

On a en face un spécialiste de l’analyse de logs et du crawl –actuel responsable SEO chez Pages Jaunes- qui maîtrise parfaitement son sujet autant en théorie qu’en pratique.

Cette formation se déroule sur 1 journée complète, le plan de formation et les slides sont clairs et les principales notions abordées parlent de Crawl, d’analyse de logs et de structure de site : 

  • Google et le web en chiffres, le web visible /invisible
  • Comprendre les crawlers : contraintes, difficultés, logiciels de crawls gratuits / payants, etc…
  • Indicateurs importants : temps de réponses des pages, profondeur de clics, maillage interne, entêtes HTTP, taux de présence des balises,
  • Le robots.txt
  • Le duplicate content –je rigole en revoyant l’image illustrative ^^-
  • L’analyse des logs Apache : pourquoi les analyser, comment faire, quelles informations sont importantes, etc…
  • Améliorer le crawl des Bots moteurs : théorie et cas pratiques

 

A qui s’adresse la formation Watussi SEO avancée?

Cette formation s’adresse avant tout a des personnes ayant de solides connaissances en SEO.
Cela peut être des responsables SEO chez l’annonceur, des consultants SEO en agence ou à leur compte ou encore des éditeurs de site dont la majorité de leur trafic vient de Google.

L’objectif de la formation est d’aborder les optimisations “on site” avancées : structure, crawl, d’analyses de logs, …
Elle permet de découvrir de nouveaux KPIs tel que le taux de crawl, le nombre de pages orphelines, la période de rétention, …

L’idée est de décortiquer un site en essayant d’avoir le point de vue de Google et d’essayer d’en tirer des pistes d’optimisation.

 

L’analyse de logs est exploitable sur des sites à partir de quelle taille ?

L’analyse de logs est exploitable quelques soit la taille du site : elle permet de comprendre la façon dont Google perçoit un site internet.
Il est très rare qu’un site soit parfaitement clean.
Depuis qu’il fait du SEO, Jean Benoit a eu l’occasion d’auditer des dizaines de sites de toute taille : l’analyse de logs a toujours permis de découvrir des facteurs freinants et de mettre en place des optimisations pour améliorer le referencement Google.

Cependant, c’est sur les sites à forte volumétrie possédant plusieurs milliers de pages que l’analyse de logs prend tout son sens. Elle permet souvent d’identifier des facteurs bloquants, qui une fois corrigés vont générer une croissance d’audience très importante.

Qu’est ce qu’apporte l’analyse de logs pour un SEO qui n’a pas l’habitude d’utiliser ça ?

La découverte de l’analyse de log est généralement perçu comme un nouveau paradigme. On passe d’un SEO “au feeling” ou les décisions sont prises à l’instinct, à un SEO “scientifique” ou chaque projet est décidé suite à des observations chiffrées et ou l’on peut mesurer précisément les effets d’une modification.

 

Mon avis sur cette formation

Si vous avez déjà des bases en Référencement naturel et que vous voulez approfondir votre expertise en abordant le sujet avec un angle complémentaire aux méthodes traditionnelles, participez à la formation de Jean-Benoît MOINGT les yeux fermés (elle est éligible au DIF en plus).
Il est expert sur le sujet (c’est un ancien d’Aposition) et en plus super sympa.

J’ai utilisé l’analyse de logs Apache sur ce site qui est un blog de petite taille (moins de 300 pages) et c’est hallucinant le nombre de points faibles que j’ai relevés : spider trap et URLs dupliquées (pas forcément indexées en plus), catégorie non crawlée, erreurs serveurs, pages trop volumineuses, etc…

Jérôme pasquelin - jeromeweb

Entrepreneur et Geek depuis plus de 20 ans.

Entrepreneur et Geek depuis plus de 20 ans.

4 Comments

  1. Jean

    Je lis de temps en temps le blog de Jean-Benoit et j’ai eu l’occasion d’assister au test fait par un ami de ses programmes Watussi Box et Watussi Report, rien à dire, Jean-Benoit Moingt est un pro et sa formation doit valoir son pesant d’or 🙂

  2. Annuaire Tiger

    Bonjour,

    ça m’intéresse beaucoup ce billet. Comment fonctionne le script ? On place le script sur le serveur et il s’occupe seul d’analyser les logs apache ou alors on a le script sur son poste et on dl les log qu’on lui soumet ?
    On ne peut donc pas s’en servir sur un mutu par exemple ? Merci de votre retour pour ceux qui ont testé.

  3. @Annuaire tiger, c’est une formation théorique illustrée de cas concrets et d’exemples d’analyses ou de crawlers gratuits / payants.
    Il n’y a pas de logiciel fournit avec.

    En revanche Jean benoit met à disposition sur son site une solution gratuite ‘light’ d’analyse de Google bot : http://box.watussi.fr
    Tu mets ça sur ton FTP, paramètres les accès BDD et à l’administration et ensuite tu auras le détail du passage de google bot ainsi que quelques autres indicateurs.
    Vérifies les premiers temps si tu l’installes si ton mutualisé n’arrive pas à saturation au niveau BDD car ca fait pas mal d’enregistrements si google bot passe souvent ou si tu as beaucoup de trafic organique

  4. Annuaire Tiger

    @Jerome-pasquelin : un grand merci pour tes explications hyper claires. Je vois bien la différence entre la formation et le script dispo sur le site. Faut que je teste ça mais j’avoue que sur un mutu c’est possible que ça sature un peu.
    Top en cas ! Encore merci. Je connaissais pas ton blog mais je bookmark direct.

Post Comment