Il file di Log è una fonte preziosa di dati in tempo reale che ci permette di conoscere quale sia, giorno dopo giorno l'esperienza di scansione dei Bot sul nostro sito web ma, al contempo, è una cartina tornasole anche per i dati storici perchè ci permette di comprendere al meglio quali siano gli url ancora presenti nella pancia degli Spider dopo una migrazione o quali risorse vengano scansionate grazie a collegamenti da siti referral.
Abbiamo già compreso l'importanza dei Log per le nostre decisioni strategiche ora dobbiamo alzare l'asticella delle nostre analisi ed ottenere tutti i microdati granulari per non commettere errori. In nostro aiuto Log File Analyser ha messo a disposziione la funzione “Imported url Data”.
Con questa funzionalità saremo in grado di inserire nel progetto un file Excel o in formato "csv" che comprenda una lista completa di url che vogliamo monitorare e confrontare con il file di Log.
Per questo confronto potremo prendere in considerazione la Sitemap del nostro sito web e confrontarla con l'esperienza di scansione dello Spider (file di log): in questo modo saremo in grado di capire se il nostro website sia in linea con le aspettative del Motore di Ricerca, se tutte le risorse sono "crawlerabili", se esistono "Orphan Pages" o errori cagionati da una migrazione (status code 3XX, 4XX,5XX).
Una volta eseguita l’importazione dei dati potremo avremo una lettura asettica degli url come se fossimo in Screaming Frog, con la possibilità di usufruire di nuovi filtri sotto la voce “Url”.
Le opzioni a disposizione con il nuovo filtro:
Una volta riscontrati eventuali incongruenze fra le analisi del file log e degli “Imported Url” possiamo gestire eventuali errori, declassare alcuni url o correggere collegamenti corrotti.
I dati importati possono venire cancellati attraverso “project—> Clear Url”.
Leggi i nostri consigli per un'analisi dei file di Log con Log File Analyser >>