Hai mai provato Visual SEO studio?

Federico Sasso

Federico Sasso

Non è cosa da tutti aprire una software house e sviluppare un (buon) software per audit tecnico di siti web. Ebbene Federico non solo ha fondato aStonish Studio, ma è il papà di Visual Seo Studio, un validissimo e ormai arcinoto strumento made in Italy per l’audit tecnico avanzato.

È uno strumento SEO che permette di studiare dalle referenze più superficiali fino agli aspetti più approfonditi della scansione dei percorsi interni ed esterni.

Ma di queste ed altre meraviglie preferisco far parlare direttamente il nostro, che oggi sono davvero felice di ospitare su queste pagine.

 

Ciao Federico, ci racconti i tuoi attuali focus lavorativi?

Ciao Francesco, e grazie per questa intervista.

Parlerò spesso al plurale, perché in aStonish Studio – la software house che ho fondato – non sono solo, e da solo non potrei fare molto.

Principalmente siamo impegnati sul prodotto di punta, Visual SEO Studio (un analizzatore di siti web dedicato ai SEO):

Da una parte c’è lo sviluppo di nuove funzioni per agevolare il lavoro dei nostri clienti e far fronte alle loro nuove richieste.

Dall’altro c’è il miglioramento della documentazione, soprattutto nella forma di video tutorial e futuri webinar. Già abbiamo messo online un po’ di mini-tutorial in un formato facilmente fruibile, sia in Italiano che in Inglese, e siamo abbastanza soddisfatti del risultato.

Un ulteriore fronte è lo sviluppo di altri prodotti, su questo punto però preferisco tenere un certo riserbo.

Facciamo anche attività di consulenza; in questo particolare anno 2020 l’abbiamo ridotta – un po’ anche per forza maggiore – per dedicarci maggiormente alla parte software.

 

Cosa è Visual SEO Studio e cosa non è?

Cosa è:

Visual SEO Studio è uno strumento di ausilio a chi effettua audit di siti web per automatizzare i controlli che riguardano la SEO tecnica:

dal semplice controllo di link, errori HTTP, gestione di titoli e meta descrizioni, ad attività più complesse normalmente svolte da un’utenza più specialistica (canonicalizzazione degli URL, analisi hreflang per siti multilingua, analisi di performance, rilevazione problemi codici di tracciatura di analytics, etc.).

È disponibile per Windows e macOS, nelle versioni gratuita con limitazioni, Trial di valutazione di 15 giorni, e Professional.

Cosa non è?

Non è un sostituto del cervello, non è una delega alle competenze.

Uno strumento di SEO audit come Visual SEO Studio, semplificando, fa due/tre cose: raccogliere i dati, presentarli, ed eventualmente analizzarli.

La parte di raccolta dati è abbastanza standardizzata. Nel caso di uno spider SEO si tratta di scaricare pagine di un sito web in modo ricorsivo seguendo dei link.

La parte di presentazione può essere il più grezza possibile, ossia mostrare solo un tabellone di dati e lasciare che l’utente se li analizzi e interpreti secondo la propria competenza e propensione, magari esportando in un foglio di calcolo.

[adrotate banner=”1″]

Oppure può essere più raffinata, permettendo viste diverse del dato, filtri, ecc. Tante volte, presentare i dati con il giusto grafico invece di una tabella fa capire tante cose. In questo aspetto i vari prodotti tendono già a differenziarsi.

Il programma può anche metterci un po’ più di intelligenza e fare elaborazioni a vari livelli.

Qui è dove i prodotti si differenziano maggiormente.

Visual SEO Studio offre molte possibili elaborazioni, automatizzando il controllo di regole ampiamente riconosciute e presentando il dato elaborato in modo facilmente interpretabile; l’obiettivo è semplificare la vita dell’utente automatizzando attività manuali che o prenderebbero troppo tempo, o sarebbero del tutto trascurate. È quello che le macchine sanno fare meglio.

Quello che Visual SEO Studio evita di fare (tranne in casi lampanti) è di interpretare in modo assoluto i dati sostituendosi all’analista. Semplicemente perché tutti questi tipi di software hanno una visione parziale e non hanno le risorse di un motore di ricerca; rischierebbe di prendere cantonate a danno dell’utente.

Ciò non vuole dire che il software “complesso” debba essere anche molto “difficile” da usare.

Già gli antichi filosofi greci ci insegnarono che esistono due tipo di complessità:

La complessità intrinseca esiste perché il problema è in sé complesso. Si può solo lenire con viste grafiche e filtri sui dati.

Poi c’è la complessità estrinseca, ossia tutte le complessità artificiose che riflettono modelli mentali del programmatore, convenzioni interne, gergo interno, rigidità dall’interfaccia grafica, limitazioni dell’ambiente di sviluppo, eccetera. Tutta roba che all’utente non dovrebbe arrivare, e invece inevitabilmente impone uno sforzo cognitivo in più.

Spesso non ce ne rendiamo conto appieno, ma tali complessità sono ovunque. Si pensi al layout delle tastiere QUERTY: non sono così per ragioni ergonomiche, ma perché le prime macchine da scrivere meccaniche tendevano a incepparsi se si scriveva troppo velocemente; allora si concepì una disposizione di tasti che *rallentasse* la scrittura. Una convenzione di cui siamo prigionieri ancora oggi!

Su queste complessità si può intervenire usando convenzioni largamente accettate (es. il rosso indica errore, oppure uno stop), strumenti più flessibili, studi di usabilità ed esperienza utente, e migliore documentazione.

Un rischio concreto è cercare di volere spiegare troppo.

Per esempio, in Visual SEO Studo abbiamo aggiunto nell’ultimo anno un Help integrato molto completo, sensibile al contesto.

Qualsiasi elemento presente nell’interfaccia del programma vi è descritto e spiegato. Clicchi su una colonna (per esempio), e l’Aiuto in linea si aggiorna descrivendo a cosa la colonna si riferisce, e cerca di spiegare in breve il significato.

Qui bisogna prendere delle decisioni su quanto debba essere approfondito. Per esempio se la colonna riporta l’elemento “title” di una pagina web, l’Aiuto in linea lo specifica, e ricorda brevemente cosa sia il title e che impatto abbia nella SEO; dobbiamo però presupporre che chi usa uno strumento del genere sappia benissimo che cosa sia il title.

Un principiante potrebbe avere bisogno di qualche dritta in più, ma bisogna capire fino a dove spingersi nel dettagliare e dove rimandare ad altre risorse.

Va sicuramente spiegato l’uso del programma, e addentrarsi maggiormente nel significato dei campi quando questi tendono a essere meno conosciuti. Per esempio chi fa SEO di solito sa – ci mancherebbe! – cosa sono title e meta descrizione, ma magari non ha famigliarità con la teoria delle web performance, e molto probabilmente non conosce o non ricorda dettagli e limitazioni delle formule di leggibilità del testo, o la sintassi XPath, che allora vanno spiegate un po’ più approfonditamente.

 

Ci si affida troppo o troppo poco ai software nel mondo SEO?

Gli strumenti software sono importanti nella SEO, senza di essi non si riuscirebbe a gestire grandi quantità di dati.

Penso che nel mondo dei professionisti sia una cosa ben compresa.

Quello che purtroppo noto troppo spesso è l’aspettativa che i software esonerino dal dover ragionare. Dall’essere buoni professionisti.

Da qui l’affidarsi esclusivamente a metriche che spesso poco hanno a che fare con il funzionamento dei motori di ricerca o da come gli utenti interagiscono con il Web.

Va bene cercare di modellare un problema complesso con un’approssimazione, ma bisogna essere consci dei limiti dell’approssimazione, e dei suoi presupposti per vedere se è applicabile al nostro caso.

Per capirsi: oltre a guardare metriche come la “domain authority” o lo “spam score”, occorre comprendere come sono stimati, e se siano effettivamente applicabili nel nostro caso.

Molte volte è meglio andare a vedere le SERP come sono fatte, come si propongono di rispondere agli intenti di ricerca sotto vari aspetti, piuttosto che affidarsi a dei numerini forniti da terze parti senza contesto. E andare a vedere i siti, nostri e concorrenti, con occhio critico e mente aperta.

Il numerino con il “punteggio” è un meccanismo perverso, perché spesso sono metriche basate largamente sul numero di link esterni rilevati. Porta a concentrarsi più su questi che sul produrre o migliorare i contenuti per fornire le risposte migliori agli intenti di ricerca. Se uno sa usare solo un martello, tutto gli sembrerà un chiodo. Se si affida solo a metriche basate (per esempio) sul numero di link, sarà portato a comprare link alimentando un’entropia di contenuti spazzatura. Non solo il risultato potrebbe essere effimero, ma anche estremamente costoso per il cliente.

Pensa a quante cose un professionista può capire a colpo d’occhio guardando solo la Home Page di un sito, che sarebbe difficilissimo istruire un programma a riconoscere:

Caratteri del testo troppo piccoli per un’audience anziana, grafica disomogenea o non adatta, forma di comunicazione inefficace, contenuti inappropriati per il pubblico scelto, scelte di schemi di colori o font infelici, missione del sito non immediata, percorsi per raggiungere gli obiettivi non chiari.

Potremmo andare avanti pagine intere con esempi simili.

I software possono essere un aiuto preziosissimo al professionista, macinando grandi quantità di dati in poco tempo, ma deve essere il professionista con la propria esperienza a capire dove conviene indirizzare i propri sforzi.

Una volta individuato il problema da affrontare, vi sono spesso più soluzioni possibili. Un software non può sempre decidere quale sia la migliore, perché può dipendere da molti vincoli: dalle risorse umane disponibili, dalle conoscenze tecniche del proprio gruppo di lavoro, da budget, tempo e strumenti a disposizione. Se un CMS legacy non permette facilmente di impostare cose tipo redirect, noindex, o canonical, e modificarlo costerebbe troppo o richiederebbe tempi troppo lunghi, il consulente deve sapere quali strade alternative utilizzare, almeno come soluzioni tampone.

Tutto questo per dire che il software da solo non può – per fortuna – ancora sostituirsi al consulente, né permettere a questi di non essere formato e non usare il cervello, a volte in modo creativo.

Chi sviluppa software deve spesso fare delle scelte. Quanto cercare di agevolare l’utente alla comprensione del dato, e quando affidarsi alla sua competenza.

Il rischio è di cercare di inferire troppo, e prendere cantonate clamorose. Uno strumento a basso costo avrà sempre una visione parziale rispetto al motore di ricerca. Per esempio negli anni ci hanno spesso chiesto di aggiungere a Visual SEO Studio uno “SEO score” (qualsiasi cosa voglia dire) per i siti analizzati. Vi sono strumenti che cercano di farlo (di solito sulla sola home page, non sul sito intero), ma non ha molto senso. Lo strumento può vedere che non ci sono link rotti, redirect nei link, titoli duplicati, attributi alt valorizzati, etc… ma non entra nel merito della semantica dei testi per capire se rispondono agli intenti di ricerca; se fa un’analisi on-site non può tenere conto dei segnali off-site, eccetera. Si rischia di dare un numerino che ogni tanto è significativo, e spesso non lo è.

Alla fine del mese, l’unico numerino che conta è il consuntivo delle vendite (o qualsiasi altro obiettivo sia stato deciso).

Non è sbagliato affidarsi ai software per sé, è sbagliato delegare ai software certe decisioni.

A mio modo di vedere i software devono essere solo un (preziosissimo, indispensabile) ausilio alle decisioni; non possono essere un sostituto alla professionalità del SEO.

Se fosse possibile sostituire con un pezzo di software il cervello dell’analista, i casi sono due: o l’analista non servirebbe più, oppure il pezzo di software costerebbe uno sproposito e sarebbe paragonabile al motore di ricerca.

 

Nella tua esperienza, quanto e come incidono le dipendenze javascript/CSS nella SEO

Incidono, potenzialmente parecchio, in particolare le dipendenze da script. Purtroppo, in modo negativo.

Framework di sviluppo come Angular, React, Vue e altri sono strumenti molto interessanti, oggetto di attenzione in molte software house interessate a rendere applicazioni desktop “portabili”.

Ma nel mondo dei siti web?

Dopo un primo entusiasmo iniziale, la loro espansione si è rallentata. Oggi i siti web pubblici che si basano sul solo rendering client-side sono una percentuale bassissima.

Dal punto di vista SEO, rappresentano una scelta infelice per più motivi:

  • l’indicizzazione è più lenta:
    semplificando, siccome tali pagine web necessitano di un’elaborazione aggiuntiva per capire se degli script – magari scaricati da altri script – modificheranno il DOM (la struttura della pagine, e quindi anche il suo testo), queste richiedono dei passi in più nella valutazione da parte del motore di ricerca.
    Se la prima indicizzazione può sembrare un problema marginale, si pensi alle volte che si desidera il motore di ricerca visiti nuovamente le pagine per recepire al più presto dei cambiamenti importanti.
  • Ci sono più punti di “rottura” che possono prevenire la corretta interpretazione della pagina.
    Supponiamo che uno di questi script sia servito dal web server in un tempo troppo lungo, googlebot (lo spider di Google) ha poca pazienza, oltre i cinque secondi circa si stufa e quello che ha, ha. Prova a generare la pagina finale, e se alcuni contenuti importanti dovevano essere iniettati da uno script andato in timeout, non sono recepiti dal motore di ricerca. Un sito web tradizionale, capace di “degradare in modo non drammatico” qualora non fosse possibile scaricare uno script o un CSS, sarebbe comunque sempre leggibile dal motore di ricerca.
    È un po’ come la massima di Henry Ford con il suo modello T: “quello che non c’è non si può rompere”.

Va detto che un po’ di dipendenza verso file esterni, anche prima che googlebot divenisse ufficialmente un “headless browser”, c’è sempre stata.

Google Chrome non è nato da zero, gli ingegneri di Google avevano già sviluppato la tecnologia alla sua base avendo la necessità di rilevare le tecniche di cloaking: testi nascosti da posizionamenti e visibilità CSS, testi con lo stesso colore dello sfondo, testi fatti sparire all’utente con degli script.

Però erano dipendenze valutate a posteriori per capire se intervenire con penalizzazioni, processi che non impattavano nella normale vita di chi voleva fare solo il suo lavoro senza fare il “furbetto”.

Come avrai capito, non sono un avvocato delle soluzioni web con forti dipendenza da script e stili esterni.

Intendo per contenuti pubblici da indicizzare, siti web tradizionali; per le applicazioni web – normalmente protette da login, è tutto un altro discorso.

In ambito SEO, sconsiglio l’utilizzo di soluzioni con tali dipendenze.

 

C’è un software ideale, anche impossibile, che ti piacerebbe realizzare?

Qui in aStonish Studio srl – la software house dietro a Visual SEO Studio – abbiamo diversi progetti (non solo in ambito SEO) nel cassetto in cui potenzialmente crediamo, ma lasciamo lì per mancanza di risorse a seguirli.

Potrei pescare da quel cassetto, però mi piace l’idea del software “impossibile”, e dato che non mi hai relegato nella nicchia della SEO, ecco cosa mi piacerebbe tanto realizzare:

Un programma dedicato alle sentenze giudiziarie in ambito penale.

Sarebbe costituito da due moduli: il primo che raccolga tutti i dati, gli indizi, i fatti certi, e con un sistema di intelligenza artificiale dedicato alla risoluzione automatica di problemi logici, computi un responso di colpevolezza o innocenza, o ogni sfumatura intermedia.

Risolverebbe un problema di automatizzare il lavoro di deduzione e induzione che porta a una risoluzione logica. Capire in modo certo se gli elementi raccolti comportano la responsabilità dell’imputato.

Ce ne sarebbe bisogno: troppo spesso, sia in Italia che altrove, si è condannati in base a indizi o influenza culturale. Oppure si è condannati in una sede, assolti in un’altra, fino all’appello finale. Con gli stessi dati di partenza, la sentenza dovrebbe essere unica e logica. Addirittura – non dico necessariamente in Italia – può capitare che lo stesso crimine sia giudicato in modo diverso a seconda del colore della pelle dell’imputato!

Nota che questa parte teoricamente sarebbe possibile, per quanto molto difficile a realizzarsi.

Il secondo modulo sarebbe deputato, dato il risultato del passo precedente, a computare la sentenza. Se il responso è di colpevolezza, quanti anni di pena comminare al colpevole?

Anche qui, oggi si ha la variabilità più totale: alla prima sentenza tot anni, in appello qualcosa di diverso. Con un avvocato buono si ha un risultato, con un altro un risultato magari molto diverso.

Dati in ingresso reato, aggravanti e attenuanti, e tutto il codice penale, il software dovrebbe essere in grado di tirare fuori in modo univoco l’ammontare della pena commissionata.

Questo modulo purtroppo sarebbe “impossibile” da realizzare, perché le leggi sono descritte in modo spesso ambiguo, e da interpretare.

Software impossibile, però sarebbe bello. È bello sognare di poter salvare un innocente che sarebbe condannato ingiustamente, o poter garantire l’equa punizione in base all’effettiva colpa.

 

Progetti per il futuro? Hai idee in cantiere?

Sì tante, ma posso tenerle al momento per me? 🙂

Rispondi all'articolo

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *


The reCAPTCHA verification period has expired. Please reload the page.