Vi è sicuramente capitato di fare una ricerca di Google e avere determinati risultati sulla SERP. Magari sapete anche che per ottenere quei risultati serve saper scrivere in ottica SEO. Ma avete mai sentito parlare dello Spider di Google?

Potrebbe interessarti anche: Ottimizzazione SEO: le 7 tecniche per scrivere un articolo

Cos’è lo spider di Google?

Niente paura per gli aracnofobici, lo spider di cui parliamo non è uno di quegli esserini ad 8 zampe che per molti di noi sono un vero e proprio incubo, si tratta di un bot che sonda il web.

Ogni volta che si aggiunge un contenuto su un sito questo robot controlla la pagina e raccoglie informazioni su di essa per poi passarle al colosso di Mountain View, ovvero Google.  

Quest’ultimo, usufruendo del suo algoritmo, stabilisce dove la pagina analizzata si posizionerà sul proprio motore di ricerca.

Spider di Google

Da ciò risulta abbastanza chiaro che lo spider di Google esegue la scansione del web ogni giorno, ma in realtà questo non è il solo momento in cui il bot scandaglia la rete.

Possiamo infatti distinguere due tipi di scannerizzazione: 

  • Deep Crawl: è una scansione eseguita mensilmente.
    Con essa Google prende visione di tutte le pagine internet e aggiorna indici e cache. Durante questo periodo, che in genere dura almeno una settimana, vengono aggiornate tutte le informazioni presenti sul database e si può verificare il fenomeno della Google Dance. Infatti i link delle pagine, grazie a questo riesame, possono subire delle variazioni nel loro posizionamento;
  • Fresh Crawl: è la scansione eseguita giornalmente e di cui parlavamo poco prima.
    Lo spider monitora costantemente i siti girando per il web e collezionando nuove informazioni.

Come funziona lo spider di Google?

Quanto appena detto potrebbe far pensare che lo spider di Google arrivi su una pagina non appena si pubblica un nuovo contenuto, ma in realtà i tempi sono leggermente più lunghi.

Se pensate alla mole di informazione prodotta ogni giorno su internet, capirete che sarebbe impossibile per il bot essere su tutti allo stesso tempo.

alsolved

Quindi in base alla gerarchia dei siti alcuni saranno visitati prima e altri dopo. Ma con quale criterio? In base al ranking del sito, ovvero al punteggio dato da Google in base ad autorità e popolarità dello stesso.

Un sito con un ranking più alto è quindi considerato più autorevole e dovrà aspettare meno per essere preso in considerazione da Google. Differentemente i nuovi approdati sulla rete, non avendo ancora un’autorevolezza consolidata, impiegheranno più tempo per essere notati e ricevere la visita dello spider di Google.

Qualora io intenda rendermi competitivo sul web e fare in modo che il mio posizionamento sia alto nel motore di ricerca, dovrò avvalermi delle tecniche di SEO Copywriting.

Come già detto lo Spider invia tutti i dati raccolti a Google e questo in base al suo algoritmo stabilisce il posizionamento. Se nel redigere il mio testo sul web avrò seguito le logiche che stanno alla base dell’algoritmo sarà più semplice posizionarmi tra i primi risultati.