Contattaci
CHIUDI
Contattaci, siamo a tua disposizione
Hai una richiesta specifica? Ti serve uno dei nostri servizi? Vuoi semplicemente conoscerci?
Qualsiasi sia la tua necessità, contattaci e saremo lieti di prendere in carico la tua richiesta.
Questo sito è protetto da reCAPTCHA e si applicano le Norme sulla privacy e i Termini di servizio di Google.
I campi contrassegnati da * sono obbligatori
Privacy policy*
imported URLs in log file analyser

Guida di Log File Analyser: Importare gli URLs data

Seo , 10 Settembre 2019
Continua
Categorie/Archivio
Chiudi

ARTICOLO PIÙ RECENTE

Web & App Development | 29 Agosto 2024

Prenotazioni dirette e zero commissioni: il vantaggio di avere un sito web per il tuo B&B

Il settore dell’ospitalità è cambiato molto negli ultimi anni, con un boom delle piattaforme di prenotazione online come Booking.com ed Airbnb.it ...

Il file di Log è una fonte preziosa di dati in tempo reale che ci permette di conoscere quale sia, giorno dopo giorno l'esperienza di scansione dei Bot sul nostro sito web ma, al contempo, è una cartina tornasole anche per i dati storici perchè ci permette di comprendere al meglio quali siano gli url ancora presenti nella pancia degli Spider  dopo una migrazione o quali risorse vengano scansionate grazie a collegamenti da siti referral.

Imported Url data: il confronto con il file di Log

Abbiamo già compreso l'importanza dei Log per le nostre decisioni strategiche ora dobbiamo alzare l'asticella delle nostre analisi ed ottenere tutti i microdati granulari per non commettere errori. In nostro aiuto Log File Analyser ha messo a disposziione la funzione “Imported url Data”.
Con questa funzionalità saremo in grado di inserire nel progetto un file Excel o in formato "csv" che comprenda una lista completa di url che vogliamo monitorare e confrontare con il file di Log. 

Per questo confronto potremo prendere in considerazione la Sitemap del nostro sito web e confrontarla con l'esperienza di scansione dello Spider (file di log): in questo  modo saremo in grado di  capire se il nostro website sia in linea con le aspettative del Motore di Ricerca, se tutte le risorse sono "crawlerabili", se esistono "Orphan Pages" o errori cagionati da una migrazione (status code 3XX, 4XX,5XX).

 

Guida di Log File Analyser: Importare i URLs data

 

Una volta eseguita l’importazione dei dati potremo avremo una lettura asettica degli url come se fossimo  in Screaming Frog, con la possibilità di usufruire di nuovi filtri sotto la voce “Url”.

 

 

Guida di Log File Analyser: confronto Url data e file log

 

Le opzioni a disposizione con il nuovo filtro:

  • Log File: otterremo i risultati della scansione dei file di log. Questa visualizzazione sarà presentata di default da Log File Analyser.
  • Matched with URL Data: url scoperto sia nella lista Url importata che nella scansione del BOT. Questo significherà che gli Url della sitemap sono stati regolarmente Crawlerati dallo Spider. Nel caso la sitemap presenti mille url ma questo filtro ne mostri solamente un 30% potrebbe significare che lo Spider non abbia ancora considerato i nostri nuovi contenuti o che non riesca a farlo e meriterebbe un approfondimento.
  • Not in URL Data: URL scoperti dal Log File Analyser ma non presenti nella lista importata. Qui potremmo essere in presenza di una migrazione con degli errori, Url ancora nella pancia dello spider ma non più presenti o con status code errato e senza redirect. Molto usuale la presenza di link esterni che inviano ad una risorsa ormai abbandonata ma non gestita con status code 4xx o 3xx.
  • Not in Log File: URL scoperti nel file di log ma non presenti nella nostra lista di Url importata. Questa condizione potrebbe presentarsi nel caso di sito nuovo con degli url non ancora scansionati dallo Spider o appena pubblicati o, nel caso peggiore, delle pagine senza collegamenti interni o esterni (Orphan page) che il crawler non riesce a raggiungere

Una volta riscontrati eventuali incongruenze fra le analisi del file log e degli “Imported Url” possiamo gestire eventuali errori, declassare alcuni url o correggere collegamenti corrotti.

I dati importati possono venire cancellati attraverso “project—> Clear Url”.

 

Leggi i nostri consigli per un'analisi dei file di Log con Log File Analyser >>