Analyse de logs pour augmenter son trafic SEO : un outil gratuit !

Je vais commencer par les bases : un levier de trafic potentiel important, c’est le trafic SEO, c’est-à-dire depuis Google, et plus spécifiquement issu des résultats gratuits que nous appelons « naturels ». Ce sont les résultats hors AdWords.

analyse-de-logs-seo

Nos clients ne veulent qu’une chose, augmenter leur trafic SEO et donc le nombre de mots clefs bien positionnés dans Google ! Je vous invite à découvrir l’analyse de logs qui permet de trouver rapidement des optimisations à mettre en place sur votre site afin d’augmenter votre visibilité !

Comprendre de quoi on parle

L’analyse de logs est complexe en soi et obtenir les logs de son client est souvent laborieux. Exploiter les fichiers ensuite demande une certaine expertise !

Dans cet article, je vous propose un outil gratuit, rapide à mettre en place et des indicateurs pour trouver des chantiers de croissance.

Comprendre qu’est-ce qu’un « log »

Chaque site internet enregistre 100% des pages visitées par les internautes, et donc aussi les pages visitées par Google et ses robots, appelés « GoogleBot ». Ce « log » ou « journal » enregistre tout ! Même dans le détail : les images appelées pour l’affichage de la page, les fichiers CSS, JS.

Audit SEO technique par l'esquimau

Bref, ici, c’est le passage de Google qui nous intéresse. Attention, les robots de Google sont parfois spécifiques : un qui collecte des informations liées aux compatibilités mobiles, ou aux images… Mais globalement, nous allons simplifier le sujet et partir du principe qu’il n’en existe qu’un !

Analyse de logs : deux possibilités différentes et complémentaires

Pour rappel, l’analyse de logs est possible « à un instant T » : on récupère 15 jours le log en général, mais cela dépend de votre « fenêtre de crawl », notion que je ne vais pas développer ici afin de ne perdre personne ! Cette analyse est donc un audit SEO complet et qui permet de chercher un maximum d’indicateurs/KPIs susceptibles de cacher un chantier de croissance de votre trafic.

Eskimoz et l'analyse sémantique

Sinon, on peut, avec un outil, récupérer les logs en temps réel et monitorer. Par exemple, en installant un script sur le serveur comme Elasticsearch, Logstash & Kibana par exemple.

Un exemple de chantier de croissance issu d’une analyse de logs

Pour commencer, rappelons qu’une analyse de ce type est longue et s’adresse à des sites avec au moins plus de 1000 pages. Ce nombre est arbitraire, mais disons que plus le site est volumineux, plus l’analyse sera payante (à condition d’exiger un consultant sénior avec minimum 6 ans de SEO derrière lui).

Exemple méconnu : le budget de crawl

Je pose souvent la question lors d’un entretien, à quoi sert un « robots.txt »… Je suis souvent étonné des réponses. Un robots.txt permet de couper le passage de GoogleBot sur des parties du site que votre consultant SEO juge sans potentiel de visites SEO. Si vous identifiez des pages/catégories de pages sans potentiel SEO, par exemple sans contenu, il faut empêcher GoogleBot de parcourir ces pages. (Attention, contrairement aux idées reçues, cette action ne supprime pas les pages de l’index de Google si le moteur les a déjà retenues dans son index… il faudra partir sur une balise noindex).

Analyse des performances et des métrics lors de l'audit SEO

Bref, pour trouver un chantier de croissance, il faut comparer le volume des pages que GoogleBot parcourt aux pages actives, c’est-à-dire les pages qui ont généré au moins une visite SEO.

analyse-logs-seo

Dans cet exemple, le camembert de gauche représente la volumétrie des pages par catégorie sur le site d’un client et la droite le trafic SEO généré par ces mêmes catégories.

Les autres exemples de chantiers de croissance cachés dans les logs ne manquent pas :

  • Optimiser les Latence et temps de chargement
  • Mieux gérer pagination, la navigation à facettes, et les paramètres d’URLs !
  • Trouver les pages orphelines (hors maillage interne du site)

Etc… C’est long, mais payant !

Comment automatiser les logs et avoir un monitoring en temps réel gratuitement ?

Voici un script très utile pour convertir Google Analytics en analyseur de logs : http://sourceforge.net/projects/galvanize/. Ce script permet d’envoyer un hit quand GoogleBot passe sur votre site. Pour cela, l’action se passe côté serveur, en PHP.

  • Il faut donc télécharger galvanize : http://sourceforge.net/projects/galvanize/
  • Créer une propriété sous GA à mettre sur la variable : $GA_UA = ‘UA-XXXXXXX’
  • Et copier ce code sur un fichier présent sur toutes les pages de votre site :

Par exemple sur wordpress, wp-config.php est parfait.


$URL = curPageURL();
if (empty($URL)) $URL = $url;
$Label = $ip.' - '.$ua;

// que googlebot
// Logs de l'année
if(ereg("/2017/", $url) AND $bot == 'Googlebot') $GA->trackEvent('Crawl par année', "2017", $URL, $Value = NULL, $PageTitle = NULL);
if(ereg("/2016/", $url) AND $bot == 'Googlebot') $GA->trackEvent('Crawl par année', "2016", $URL, $Value = NULL, $PageTitle = NULL);
if(ereg("/2015/", $url) AND $bot == 'Googlebot') $GA->trackEvent('Crawl par année', "2015", $URL, $Value = NULL, $PageTitle = NULL);

}
elseif(ereg("bot", ua))
{
//inclusion de galvanize
include_once('Galvanize.php');
$GA = new Galvanize($GA_UA);
$URL = curPageURL();
$GA->trackEvent('@Bot a verifier', $ua, $ip, $Value = NULL, curPageURL(), $PageTitle = NULL);
}
?>

On remarque ici qui l’on peut catégoriser le crawl de GoogleBot par URL :

if(ereg(« /2017/ », $url) AND $bot == ‘Googlebot’) $GA->trackEvent(‘Crawl par année’, « 2017 », $URL, $Value = NULL, $PageTitle = NULL);

Cette ligne va donc isoler les urls comprenant la chaîne « /2017/ » dans l’event « Crawl par année » puis « 2017 ».

J’ai ajouté une ligne pour enregistrer le passage d’autre robots :

  • $GA->trackEvent('@Bot a verifier', $ua, $ip, $Value = NULL, curPageURL(), $PageTitle = NULL);

Pour vous permettre de mettre à jour la liste des events par robots.

Donc, les premières lignes vont gérer des « events » Google à retrouver dans « comportement » puis « événements » :

analyse-log-seo-google-analytics

Vous pouvez également retrouver le passage de GoogleBot au Globale :

analyse-log-seo-google-analytics-2

Grâce à la ligne : if ($bot == « Googlebot ») $GA->trackPageView();

Je laisse libre votre imagination pour tracker les bons KPI. Voici un aperçu de ce que je suis de mon côté :

analyse-log-seo-google-analytics-3

A vous de modifier/ajouter du code comme je l’ai fait pour suivre par exemple, les « status code » des pages :

analyse-log-seo-google-analytics-4

En conclusion, ce tips ne permet pas de faire une analyse de logs très poussée, mais c’est une bonne base (gratuite) pour suivre une migration par exemple.

Si vous avez aimé cet article, vous pouvez laisser un commentaire ou nous suivre sur Facebook ou nous suivre sur Twitter.

Vous souhaitez mettre en place une stratégie d'analyse de logs sur votre site ? N'hésitez pas à nous contacter, notre équipe d'expert sera ravie de vous accompagner pour optimiser la gestion de votre budget de crawl !

Contactez-nous

4 réponses pour “Analyse de logs pour augmenter son trafic SEO : un outil gratuit !

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *