Errori di robots.txt e nella scansione

0
2950
errore robots txt

Attenzione! Nel caso Google non riesca a scansionare robots.txt, a causa di errori nel file, lo spider del noto motore di ricerca smetterà di scansionare l’intero sito.

Ne veniamo a conoscenza grazie ad un articolo del consulente SEO Eric Kuan apparso sul forum dedicato all’aiuto per i webmaster.

Se Google ha problemi durante la scansione del file robots.txt fermerà la scansione di tutto il tuo sito. Se questo problema accade una volta ogni tot niente di che preoccuparsi, ma se questo problema accade di frequente è ora di correre ai ripari contattando l’host o chi vi fornisce lo spazio per il sito analizzando i dati in cui hai notato l’errore di scansione del relativo file robots.txt (da pannello dei webmaster di google)

Ma cosa vuol dire?

Nel caso non abbiate il file robots.txt niente, ma nel caso di sua presenza e restituzione di errore 200 o 404 meglio correre ai ripari e risolvere il problema della mancanza o non accessibilità del file!

Hai bisogno di un consulente SEO capace? Non esitare a contattarmi

LASCIA UN COMMENTO