Quando conosci troppo bene un sito…

Oggi vorrei parlarti di un punto di vista, il tuo. Questo post deriva da una riflessione fatta a seguito di una domanda letta nel “gruppo” qualche giorno fa. Ecco il messaggio:

usabilità pagine web

usabilità pagine web

«… Mi è stato commissionato un audit SEO per un sito ad alto traffico sparito quasi di punto in bianco dai risultati di Google News, causandogli una bella perdita di sessioni e di fatturato.
Verificando sul pannellino, il sito risulta correttamente inserito e le news vengono scansionate correttamente. Non ritrovo pattern evidenti di negative SEO o azioni spam effettuate direttamente dal cliente o dall’agenzia che li segue e non ci sono nemmeno perdite di qualità dei contenuti. Tecnicamente, il sito è a posto.
A qualcuno di voi è capitato qualcosa di simile? Se sì, che cause avete individuato?…».

Il sito web è “tecnicamente” a posto, significa che la SEO è buona. Certo, qui parliamo di Google News, quindi spesso (mi spiace un po’ dirlo) è difficile capire i motivi dei cali di visibilità. È probabile che le serp di Google News non siano controllate come quelle di Google web search, e quindi ti ritrovi nel far west, dove certi comportamenti disallineati con le “buone norme” promosse da Google vengono perpetrati nel tempo con maggiori probabilità di successo. Il malcontento che sento più spesso riguarda siti web di giornali neonati che superano in visibilità testate ben più accreditate e storicamente posizionate.

 

Ma allora Google News funziona male?

Può darsi, ma tu sei proprio sicuro che la SEO del sito sia a posto? Negli ultimi mesi ho seguito un giornale locale molto conosciuto, che mi ha manifestato esattamente questo problema. Perché questo sito semi nuovo e meno popolare risulta più visibile su Google News? Del resto la mia SEO è a posto…

Un problema del genere va sempre analizzato su due livelli. Intanto occorre valutare il sito web nella sua interezza. Un giornale con 10 anni di anzianità può avere milioni di percorsi scansionabili, dunque una buona analisi con Screaming Frog può richiedere giorni, oltre che risorse a livello hardware: l’hai fatta? Solitamente a questa domanda molti SEO si defilano, eppure è proprio a partire da qui che cominciano a venire fuori tutti i nodi che appesantiscono la scansione. Oltre un certo livello di pesantezza, Google non sarà disposto a darti risorse di scansione fresche a meno che non sei il primo a dire che Hitler è ancora vivo e vive a Detroit facendosi chiamare Frida, quindi un primo passaggio è valutare:

  • Immagini pesanti
  • Link rotti
  • Link reindirizzati
  • Pagine canoniche
  • Pagine ridondanti
  • Percorsi seguiti per errore

etc. etc. (etc. etc.).

In alternativa, un sito inutilmente pesante (articoli del 2009 raggiungibili a partire dalla homepage) richiede una popolarità maggiore per sbloccare ulteriori risorse di scansione, quindi occorrerebbe lavorare sulla brand building, cosa comunque mai sbagliata.

 

Analisi delle pagine e mobile first

Al di là di ciò che non si vede subito, quasi ogni sito web presenta problemi evidenti nella “comunicazione”, che tuttavia sfuggono a chi segue il progetto da tempo e ancor di più a chi ha realizzato lo stesso sito web. Il problema dei tecnici e di chi lavora ad un sito web è che non si guardano le pagine come lo fa una persona interessata agli argomenti trattati nel sito. In questo breve passaggio c’è il principale motivo per cui i siti web perdono (e perderanno) terreno da ora in avanti.

Cosa sfugge in particolare:

  • I link all’articolo precedente e successivo non vengono MAI cliccati;
  • I link agli articoli in sidebar non vengono più utilizzati da eoni, soprattutto se mal correlati;
  • Il testo linkato nei paragrafi prende sempre meno click.

 

Mobile first, soprattutto per i giornali significa che gli utenti devono trovare un body text che sappia concentrare in sé tutti gli elementi utili a far navigare gli utenti tra le pagine evitando loro turbe psichiche.

Pensa a quanti utenti controllano le news sul loro argomento di interesse la mattina presto, dal letto. Queste persone hanno gli occhi ancora chiusi dal sonno, quindi la loro navigazione deve essere accompagnata con garbo, non puoi mettergli davanti link piccoli a chiave esatta nel testo di un paragrafo, altrimenti è come farli precipitare in un fosso… e si sono appena svegliati, diamine! Meglio rompere i paragrafi con intestazioni pertinenti seguite da un’area linkabile. Questo vale per i giornali, ma anche e soprattutto per i magazine e per i blog tematici, fino ai siti aziendali verticali. Insomma, per tutti.

 

Conclusioni

Qualche giorno fa ho tenuto un audit per un piccolo progetto verticale su di un tema preciso. La SEO era più che buona, eppure il sito web perdeva visibilità da novembre. Il titolare del progetto non si era reso conto che la homepage era gestita in modo da rendere improbabile il click sui link interni, mentre le altre pagine non finalizzavano proprio, vale a dire che mancavano del tutto le call to action. Se è vero come credo che Google conduce test sull’analisi comportamentale degli utenti, per avere una buona SEO non ti basterà più accertarti che i 404 vengano messi a posto, e nemmeno basterà più avere un buon assetto della struttura rispetto alle risorse di scansione.

Devi metterti nei panni delle persone a cui cerchi di vendere il tuo servizio, quale che sia.

Caspita, Google lo dice dal 2000.

 

Rispondi all'articolo

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

Time limit is exhausted. Please reload the CAPTCHA.