Il paradigma mobile spinge Google ad aggiornare i suoi algoritmi. E la SEO si adegua.

La SEO (search engine optimization) non è più quella di una volta. Così come non ci sono più le mezze stagioni e il caffè come lo bevi a Napoli non lo trovi da nessuna altra parte del mondo. Insomma, parlando della SEO che cambia si rischia di scivolare negli stereotipi. Perché è ovvio che la SEO evolva continuamente. È la sua condanna, dal momento che gli algoritmi dei motori di ricerca cambiano a loro volta ogni giorno, anche più di una volta nell’arco di ventiquattro ore.

Allo stesso tempo tale ovvietà è il cuore della SEO. Proprio per questo l’esperto di search marketing non è chi pretende di avere capito tutto una volta per tutte, ma chi procede per prove ed errori, aggiornandosi di continuo e mettendo in discussione le proprie convinzioni. L’approccio giusto è quello che si è visto a Milano il 12 e il 13 novembre scorsi, in occasione della recente SMX (Search Marketing Expo). Si tratta dell’evento più autorevole del settore, dove l’autorevolezza non è sinonimo di “assenza di dubbi”.

La sfida mobile di Google

All’SMX di Milano abbiamo capito, una volta di più, alcune cose.

La prima è che la sfida più grande non si gioca sul web tradizionalmente inteso, un web cioè isolato dal mondo delle applicazioni native e fruito in modalità desktop. E si tratta di una sfida principalmente per Google, la quale notoriamente detiene una posizione dominante nel mercato dei motori di ricerca, soprattutto in Europa. Lo riconosce senza mezzi termini Maile Ohne, senior developer programs engineer di Google Search: “Il prossimo miliardo di utenti di Internet – osserva Ohne – non immaginerà neppure che un tempo si andava su Internet con un dispositivo desktop”.

Oggi gli utenti USA consumano su applicazioni native oltre l’80% del tempo trascorso con il proprio smartphone. Conseguentemente meno del 20% del tempo è speso sul web. Secondo Ohne ciò dipende anche dal fatto che la capacità di concentrazione online sembra essersi ridotta in modo drastico: una quindicina di anni fa era di 12 secondi, oggi è di 8 secondi o forse meno. Poiché il tempo medio di caricamento di una pagina web in un browser su smartphone è superiore ai 7 secondi, il rischio che l’esperienza di navigazione non gratifichi l’utente è molto alto.

Ma non stiamo parlando solo di smartphone e tablet. Parliamo del fatto che, nel paradigma dell’Internet of things, ogni oggetto è virtualmente connesso e “intelligente”. Ciò ha un impatto enorme a livello di interfaccia utente, dal momento che la comunicazione con gli oggetti dell’IoT di rado avviene tramite una tastiera o un mouse. Anche l’interfaccia multitouch rischia di apparire vecchia.

In che modo Google si adatta al nuovo scenario?

In primo luogo contribuendo a migliorare le performance delle applicazioni web fruite su smartphone. A tale scopo, per esempio, è stato concepito il programma Accelerate Mobile Pages, di cui abbiamo avuto modo di parlare in un post recente (Vi ricordate Google News?). Ciò dovrebbe rendere più appetibile il web in formato mobile, a tutto vantaggio del servizio di ricerca del colosso di Mountain View. Si tratta, in sostanza, di competere con il mondo delle app native in termini di performance.

Ma la strategia di Google è più sofisticata. “Oggi – dice ancora Ohne – non ci limitiamo a indirizzare verso un sito web l’utente che effettua la ricerca con il nostro motore. A volte l’esecuzione della richiesta consiste proprio nell’attivare una app nativa.” Insomma: dall’approccio mobile-friendly, in cui il paradigma web resta comunque centrale, all’approccio multidispositivo e multipiattaforma, nel quale il web si integra con il mondo delle applicazioni native e addirittura con l’hardware.

Un passo fondamentale in questa direzione è la convinta partecipazione di Google al programma Schema.org, il quale sta definendo un vocabolario in grado di riconoscere relazioni fra entità (i termini di una ricerca, per esempio) e la richiesta di specifiche azioni. Applicando tipi e proprietà di questo linguaggio alla pagina web, si permette a Google di rispondere a una query dell’utente in modo potenzialmente molto sofisticato e più vicino alla semantica umana. In altri termini Google diventa capace di interpretare le azioni associate alle entità che stiamo cercando (es. prenota, scarica, suona ecc.) e di eseguirle.

Secondo Ohne l’integrazione fra web e app sarà velocissima. I contenuti delle applicazioni native sono indicizzati sempre meglio da Google, la quale si attende che nel giro di due anni il 40% delle ricerche effettuate in ambiente Android riguarderà proprio deep link di applicazioni native.

Come cambiano i fattori di ranking

Non stupisce che, in questo scenario, i fattori di ranking di Google stiano cambiano molto. Si tratta di movimenti talvolta difficili da percepire, soprattutto nei casi in cui contraddicono le nostre aspettative.

Di grande interesse è il lavoro portato avanti dalla società tedesca Searchmetrics, che evidenzia le correlazioni fra fattori di ranking e performance, mostrando quali fattori distinguono i siti web che occupano le migliori posizioni da quelli che, viceversa, conseguono un cattivo posizionamento. Ovviamente le correlazioni non sono necessariamente prova di causalità, ma il metodo di Searchmetrics è comunque molto utile, integrandosi efficacemente con il Search Engine Ranking Factors 2015, di Moz, di cui abbiamo parlato nel post Il futuro della SEO.

In particolare l’analisi di Searchmetrics ha preso in considerazione le prime 30 posizioni nella SERP di Google per un set di 10 mila parole chiave, ricercando la correlazione con 36 fattori di ranking. I risultati di questo lavoro, sui quali torneremo in futuro in modo più dettagliato, ci dicono una cosa molto semplice: l’avvento del paradigma mobile sta condizionando in misura evidente l’evoluzione dei fattori di ranking applicati da Google. Altrettanto evidente è il tentativo di Google di valutare in modo più puntuale la qualità dei contenuti online. Ecco perché acquistano importanza fattori come la presenza di contenuti strutturati, l’utilizzo di immagini e il numero di parole negli articoli.

Ma il fatto forse più interessante è la perdita di valore della singola parola chiave. Vincono i siti che, usando un numero elevato di parole chiave negli stessi documenti, aiutano Google a elaborarle e aggregarle, identificandone con maggiore precisione l’argomento. Daniel Furch, di Searchmetrics, li definisce “holistic websites”. Essi sono caratterizzati da pagine molto ricche di contenuti, che non lavorano su singole parole chiave ma contengono un’ampia varietà di termini correlati fra loro e riconducibili al tema di fondo. Tali siti tendono inoltre a migliorare le stesse pagine nel tempo, incrementandone e migliorandone il contenuto.

Questo ovviamente non significa che perdano di importanza alcuni fattori di ranking “classici”, come la presenza della descrizione fra i tag meta e la velocità di risposta e caricamento delle pagine web. Sembrerebbero invece diminuire la loro rilevanza i backlink. Anche perché – osserva Andre Alpar di PerformicsAKM3 – Google ha accresciuto molto la capacità di distinguere fra link “innocenti” e link con motivazioni SEO. Secondo Alpar Google è diventata molto brava a valutare la qualità dei nostri contenuti. Non solo dei singoli testi, ma dell’insieme delle pagine del dominio. La chiave di tutto è dunque la varietà.