immagine di sfondo articolo
Ottimizzazione del sitoSearch Engine Optimization tempo di lettura: 5 min

Ottimizzazione SEO: gestire il Crawl Budget e il posizionamento eliminando contenuti inutili

Ottimizzazione SEO: gestire il Crawl Budget e il posizionamento eliminando contenuti inutili
Sommario

Quando si va ad intervenire su un sito web già strutturato, dopo aver effettuato le primarie attività (indagine di settore, query research, audit SEO e organizzazione della struttura), una volta passati all'effettiva attività di ottimizzazione una delle prime attività è sicuramente quella di eliminazione della "zavorra" che potrebbe andare ad inficiare nel posizionamento organico.

Pur se è una attività basilare svolta sistematicamente da consulente SEO con esperienza, vediamo insieme obiettivi e metodica, ragionando poi sui motivi per cui un contenuto diviene "zavorra" e non pilastro o spinta.

Obiettivi: risparmio del crawl budget + migliore posizionamento di query target

Più un sito si riempie di URL (Uniform Resource Locator o localizzatore unico della risorsa), ovvero pagine web con un indirizzo univoco, più vi sarà rischio che il motore di ricerca non riuscirà quotidianamente a scansionare eventuali nuove risorse o risorse modificate. Per questo il primo obiettivo è di mantenere pubblici e scansionabili il minor numero di URL.

Il secondo motivo è quello di cercare di "inquinare" il meno possibile il posizionamento di un sito web, facendo si che le query che si vadano ad indicizzare e poi a posizionare siano tutte in target e definite dalla query research introduttiva, in particolare quando si parla di siti web verticali e che conseguentemente devono ottenere traffico in target per arrivare a conversione. Come vedremo a seguire in questo articolo purtroppo nel tempo si tende a portare fuori argomento il sito web e a rallentare la sua scansione, a causa di una struttura che non riesce a rendere agevole la scansione di troppi contenuti.

Cosa si intende per Crawl Budget

Il motore di ricerca naviga ogni sito con un crawler, ovvero un software dedicato a scansionare gli URL. Per ogni sito, in funzione di autorità e frequenza di aggiornamento, alloca risorse di scansione. Conseguentemente vi è il rischio che un sito con troppi URL rispetto al crawl budget a lui dedicato veda una scansione lenta e non completa di tutti gli URL, con conseguente rallentamenti nell'indicizzazione.

Eliminare il contenuto inutile: l'attività nel dettaglio

Per effettuare questa attività sono necessari quattro strumenti:

  • Google Analytics
  • Un software di crawling come Screaming Frog (SC)
  • Un software per l'analisi dei Backlink come Ahref, Majestic o in alternativa SemRush
  • Un foglio di calcolo. Di mio in passato usavo Excel ma negli ultimi cinque anni sono passato a Google Sheet per varie questioni, fra cui l'integrazione con Looker Studio per la creazione di report

Raccolta URL

Con Screaming Frog (o similare) scansioniamo il dominio e ne estraiamo tutti gli URL, importiamo su Google Sheet e filtriamo escludendo gli URL in 30x, 40x e noindex. Questi vanno trattati con una analisi, obiettivi e metodi differenti.

Su Google Analytics andiamo a recuperare tutte le pagine di destinazione raggiunte dal traffico organico negli ultimi 6/8 mesi (Coinvolgimento > Pagine di destinazione e da Tutti gli utenti passiamo a Traffico organico). Premiamo su condividi > esporta questo rapporto > CSV e lo formattiamo (togliamo le prime righe di header e poi mettiamo i dati in colonna usando come separatore la "," ).

Apriamo un foglio di Google Sheet e nella prima colonna inseriamo tutti gli URL che hanno generato più di una decina di visite, da traffico organico. Come potete vedere gli URL non sono assoluti ma relativi e per fare un confronto la prima cosa che dovremo fare sarà quella di aggiungerci il dominio per renderli assoluti (come quelli estratti da SF). Di mio uso la funzione CONCATENATE sulla seconda colonna.

Nella terza colonna inserisco la formula per automatizzare il confronto e nella quarta la lista degli URL del sito estratti con SF.

Confronto con i risultati che portano traffico organico

La formula che vado ad utilizzare è COUNTIF (conta SE) che mi restituisce un totale di occorrenze di una data stringa o valore in una colonna. Naturalmente se presente questo valore sarà superiore a 0, altrimenti uguale a 0. Vado quindi a effettuare una operazione logica chiedendo di darmi un valore booleano TRUE se il conteggio degli elementi è maggiore di 0 e lo intercetto con la funzione condizionale IF a cui faccio scrivere Porta traffico organico o, in alternativa Non porta traffico organico.

In sintesi la funzione completa diventa

=IF(COUNTIF($D:$D; $B2)>0; "Porta traffico organico"; "Non porta traffico traffico")

In questo caso quindi:

  • controllo il valore in B2 in tutta la colonna D
  • Se il valore in B2 è presente allora printo Porta Traffico Organico, diversamente l'altra stringa

Confronto con i risultati che portano traffico

Il webmarketing però non è solo SEO e quindi sulle pagine potrebbe arrivare traffico da altri canali o il contenuto potrebbe essere così utile per gli obiettivi del sito pur se non pagina di atterraggio. In quest'ultimo caso dovremmo quindi subito chiederci perché non arriva traffico organico, ma non è questa la sede per esaminare questo dato.

La lista degli URL che non portano traffico organico la scremo così una seconda volta rifacendo un controllo con tutti gli URL che vengono comunque visitati dagli utenti. Apro quindi Google Analytics togliendo il segmento sul traffico organico e rigenero una lista di URL che hanno generato traffico proveniente da altri canali (adv, social, referral, etc)

Rifaccio quindi il controllo, con solo gli URL che non hanno portato traffico, e ottengo così una lista effettiva di URL che potrebbero essere eliminati perché appesantiscono il sito. Per sicurezza controllo questi URL ancora una volta con una lista di URL che ricevono link in ingresso, estratti da sofware come ahref, Majestic o SemRush, per capire perché non si posizionano.

Eliminazione degli URL inutili

Per eseguire questa attività riporto gli URL su un nuovo tab del foglio di calcolo e comprendo che fare, segnandomi per ogni URL l'azione effettuata, un eventuale redirect e note.

In questa fase è necessario:

  • capire quali contenuti cancellare e lasciare in 404 e di quali effettuare redirect 301 e a che URL
  • fare attenzione a non fare solo il redirect 301 ma effettivamente cancellare il contenuto, per evitare che eventuali sitemap XML o HTML automatiche vadano a rilevare e pubblicare l'accesso ad un URL che poi si traduce in redirect ad altro URL
  • valutare sempre i gruppi di URL, magari non contribuiscono a portare un effettivo traffico ma sono assolutamente necessari, grazie alla loro internal link a posizionare un altro URL

Perché viene prodotto contenuto poco utile

Oltre ad eliminare contenuti zavorra è poi necessario comprendere i motivi che li hanno generati e cercare di non ripercorrere gli stessi errori.

Dopo oltre 10 anni di attività da consulente SEO vi posso dire i motivi più frequenti sono:

  • Piano editoriale non definito sulla base delle query obiettivo
  • Redazione non controllata e non strutturata su  effettivamente per ogni articolo, cosa che porta a sviluppare cannibalizzazione o contenuti che non si posizionano
  • Contenuti obsoleti o datati, oramai poco utili al posizionamento perché trattano informazioni superate
  • Contenuti di scarsa qualità o sviluppati in maniera poco approfondita

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

RI.DO.PC. - P.IVA 10902370013

© 2013-2024 Tutti i diritti riservati