La nuova generazione dei fattori di posizionamento

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Ogni 3-4 anni c’è un grosso cambiamento/aggiunta alle metriche che Google (e, in misura minore, a quelle di Bing/Yahoo!) utilizza per ordinare i risultati delle sue SERP.

1996-1999: parole chiave utilizzate nella pagina + meta data
1999-2002: PageRank + fattori on-page
2002-2005: anchor text + nome a dominio + PageRank + fattori on-page
2005-2009: autorità del dominio + link provenienti da domini diversi + “modellazione” del contenuto/tema + anchor text + nome a dominio + PageRank + fattori on-page

Nel 2010 e nel 2011, abbiamo visto l’ingresso dei “fattori sociali” di Facebook e Twitter. Lo studio dei percorsi di navigazione dell’utente all’interno dei siti ha mostrato che Google e Bing utilizzano questi dati, anche se probabilmente in un modo ancora marginale.

Sono convinto che la prossima generazione dei fattori di posizionamento si baserà su queste 3 metriche:

1. Fattori legati al Brand [già 2 anni fa si parlava di Google Brand Update…]

Uno dei motivi per cui Google ci ha messo tanto tempo per penalizzare JCPenney è che probabilmente i suoi quality rater, e i dati degli utenti, suggerivano che il sito forniva davvero ottimi risultati per query come “dresses” o “bedding”. Il brand aveva una buona percezione agli occhi dell’utente e Google, fino a quando il caso non è finito sulla stampa, non aveva motivo di intraprendere azioni punitive.

Il problema è che per moltissime ricerche di tipo transactional i risultati di Google non sono affatto buoni. Guarda questo esempio:

La query yellow puma shoes in Google

Ho appena acquistato un paio di Puma gialle (queste), ma il miglior risultato (probabilmente questo) era introvabile in Google, e le prime 2 pagine mostrano risultati non abbastanza specifici – in un buon numero di questi non sono neppure presenti le Puma gialle!

Google può risolvere il problema, e un buon modo per farlo è quello di separare i “brand” (che producono utenti e clienti soddisfatti dei risultati delle ricerche) dai “generici” (siti che spesso possono essere classificati fra gli affiliati, o che comunque non lasciano all’utente il ricordo di una buona experience). I webmaster e i supporter degli small business sul web potrebbero lamentarsi, ma siamo tutti d’accordo che Puma, Amazon e Zappos sono sicuramente buoni risultati per una query come quella in questione.

Ma quali tipi di fattori potrebbe utilizzare Google per capire se un sito è un “brand” oppure no?

Brand sites vs. Generic

Questi sono solo alcuni esempi; Google e Bing sono sicuramente in grado di guardare a decine o centinaia di altri parametri.

Come puoi ben immaginare, ci saranno siti che cercheranno di usare a loro favore questi fattori, ma i motori saranno in grado di rilevarli: il Vince update di 2 anni fa viene spesso ricordato come un primo sforzo di Google in questa direzione.

2. Associare le “entità”

I motori di ricerca sono, classicamente, basati su un algoritmo relativamente “universale”, che classifica le pagine sulla base delle metriche disponibili, senza spingersi troppo nel verticale. Negli ultimi anni, tuttavia, vari SEO hanno notato una netta evoluzione verso un modello dove certe tipologie di siti hanno l’ottima possibilità di performare bene per determinate query.

I motori, per soddisfare l’intento degli utenti, sono propensi a mostrare contenuti che normalmente sarebbero esclusi da SERP competitive: per esempio, quando un utente cerca “lamb shanks”, ha senso far emergere i siti il cui contenuto è incentrato su ricette e prodotti alimentari.

La query braised lamb shanks in Google

La stessa logica potrebbe essere applicata ad una query come “The King’s Speech”, dove il motore dovrebbe propendere a mostrare siti di film come RottenTomatoes, IMDB, Flixster e Metacritic.

Bill Slawski ha spiegato molto bene la cosa tempo fa:

“Invece di limitarsi ai brand, è più probabile che Google stia cercando di capire quando una query include una “entità” (ovvero una persona specifica, un posto, una cosa) e se può identificare questa “entità”, la cosa influenza la SERP che viene mostrata…
… ho già accennato a questo argomento tempo fa, quando a Google è stato concesso un brevetto denominato “Query rewriting with entity detection” nel Maggio del 2009.
La recente acquisizione di Metaweb da parte di Google è importante, per diversi motivi. Uno di questi è che Metaweb ha sviluppato un approccio di catalogazione basato sul dare diversi nomi per la stessa “entità”. Per esempio, quando Google vede sul web nomi come “Terminator” o “Governator” o “Conan the Barbarian” o “Kindergarten Cop” può facilmente associarli a Arnold Schwarzenegger”.

Associare le “entità” potrebbe essere utile come fattore legato al brand, per classificare tipologie di query (e di risultati), e probabilmente anche per discriminare risultati verticali/universali, per esempio all’interno di Places/Maps, Immagini, Video, etc.

3. Quality rater “umani” & comportamenti degli utenti

Nell’ultimo decennio, il mondo online è stato governato da 2 forze gemelle: le Folla e l’Algoritmo. Gli utenti di Internet (la Folla) creano, cliccano e valutano, mentre le equazioni matematiche aggiungono la scalabilità e la reperibilità di tutta questa enorme mole di dati (l’Algoritmo). Come la Luna sopra l’oceano, l’attrazione di queste 2 forze contribuisce a creare le maree di popolarità (e di oscurità) di Internet. Le informazioni sono accessibili, utili ed egualitarie come mai prima d’ora.

Ma ultimamente, almeno per me, i punti deboli di questo sistema mezzo “crowdsourced” e mezzo algoritmico iniziano a farsi sentire, e la prossima rivoluzione sembra essere inevitabile.

Dato che Google ha appena lanciato una estensione per Chrome che consente agli utenti di bloccare siti scelti fra le SERP, e visti i numerosi tentativi di sfruttare i dati degli utenti nei risultati delle ricerche (SideWiki, SearchWiki, Starred Results), ci sono buone probabilità che l’algoritmo “puro” sia destinato ad estinguersi. Bing utilizza già un panel di “quality reviewer”, e così pure Google (anche se quest’ultimo continua ad essere molto reticente a riguardo). Entrambi osservano con attenzione i percorsi degli utenti all’interno dei siti web.

Tutto ciò suggerisce che aumenteranno sempre più le informazioni raccolte sugli utenti e sul modo in cui questi utilizzano la rete, al fine di migliorare la qualità delle SERP.

Liberamente tradotto da The Next Generation of Ranking Signals, di Rand Fishkin.

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.
×
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

9 Comments

  • Sistemi per non far abbandonare un sito nei primi 30 secondi di navigazione ce ne sono tanti… 🙂

    Reply
  • Io lo dico da molto tempo…
    Cito un mio post dell’aprile 2010:

    “[…] Non sarei sorpreso, ad esempio, che Google iniziasse a monitorare tempo di permanenza e pagine visitate in un sito, oltre alla frequenza di rimbalzo (ovvero chi abbandona il sito nei primi 30 secondi di navigazione), per premiare la qualità dei contenuti e la user experience.

    In questo modo si applicherebbe una logica ancora più “democratica” al web: si trasformerà cioé la navigazione dell’utente in una sorta di “voto di qualità” al sito che sta visionando.”

    Reply
  • Io lo dico da diverso tempo…

    Cito un mio post dell’aprile 2010: http://wholeworldtrip.blogspot.com/2010/04/il-principio-di-archimede-applicato-al.html

    “[…]Non sarei sorpreso, ad esempio, che Google iniziasse a monitorare tempo di permanenza e pagine visitate in un sito, oltre alla frequenza di rimbalzo (ovvero chi abbandona il sito nei primi 30 secondi di navigazione), per premiare la qualità dei contenuti e la user experience.

    In questo modo si applicherebbe una logica ancora più “democratica” al web: si trasformerà cioé la navigazione dell’utente in una sorta di “voto di qualità” al sito che sta visionando.”

    Reply
  • Articolo interessante.
    Trovo però che senza un massiccio apporto umano, ogni algoritmo sarà aggirabile e ci sarà sempre un contenuto poco contestualizzato, poco attinente e “poco utile” (dipende per chi :)) in cima a precise serp.

    L’unica via d’uscita che vedo è “premiare” l’utenza.
    Anni fa con quella cosa chiamata PPC, anche il negozietto più sfigato del mondo poteva vendere il suo prodotto in America invece che alla massaia che abita accanto.
    Con pochi spiccioli tutto questo era possibile.
    Con pochi spiccioli tutto questo è possibile.

    Adesso Google potrebbe premiare gli utenti che aiutano il motore a filtrare i contenuti, a dare un voto ai migliori e penalizzare i peggiori. Con pochi spiccioli ciascuno, potrebbe pagare gli utenti che all’occorrenza si improvviserebbero “quality rater”.
    Con pochi spiccioli tutto questo potrebbe essere possibile.

    Però nell’esempio sopra è usato “è'” ed “era”, quindi ho usato delle certezze.
    Nell’esempio sotto ho usato “potrebbe”, quindi si parla al condizionale…

    Reply
  • Ottimo come sempre!!!
    Cmq se io devo cercare un paio di scarpe puma, cerco direttamente il sito della puma scrivendo nella barra degli url http://www.puma.it oppure solamente puma (il brand è conosciuto a livello mondiale)…. e guardo quello che succede….. e questo era quello che credevo facessero tutti gli utenti… ma così non è, la prassi è aprire il browser e nella loro home (virgilio, bing o google che sia) scrivono quello che cercano nella barra di ricerca… e, alcune volte, ottengono i risultati più impensabili!!!!
    Quello che voglio dire è che un’algoritmo buono o ottimo che sia non riuscirà mai a raggiungere i risultati che può raggiungere un quality (nel bene e nel male :-P), ma col tempo e l’educazione degli utenti arriveremo quasi alla “ricerca perfetta!!!!!

    Reply
  • Ciao, tu dici che “…ma il miglior risultato (probabilmente questo) era introvabile in Google”.
    Sicuramente era la pagina migliore al mondo (sito ufficiale, store, modelli di scarpe gialle etc), ma senza aver fatto un’analisi approfondita salta subito agli occhi che il sito non è ottimizzato: già solo il fatto che tutte le url con i parametri per i filtri (colori, taglia, forma, brand ducati…) hanno lo stesso Title è un segnale. Non voglio dire che solo il Title è un parametro per dire buona o cattiva ottimizzazione, ma se hai un url che mostra sole scarpe gialle… al motore glielo devi dire. Il Title è “PUMA Men’s Athletic and Fashion Shoes: Sneakers, Cleats, Sandals & More – PUMA Online Shop”…. secondo te la scarpa con i tacchetti da calcio è Fashion? 🙂
    L’algoritmo è un calcolatore, se non gli dai gli addendi giusti lui la somma non riesce a farla. 😉

    Dr.Seo

    Reply
  • Taglia, taglia, taglia è vengono sempre dei bei articoli 😉 Complimentoni 😀

    Reply
  • Veramente interessante. Staremo alla finestra aspettando notizie più precise in merito, ma intanto secondo me varrebbe la pena di lavorare sul discorso della navigabilità e dei percorsi degli utenti sul sito.

    Reply

Rispondi

Max Valle
Max Valle

Da oltre 20 anni, fornisco consulenze per aziendee professionisti, che vogliono sviluppare il loro business, aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Iscriviti alla Newsletter
Main sponsor
logo kleecks

Sponsor

La nuova generazione dei fattori di posizionamento
Scroll to Top

Vuoi capire perchè il tuo sito non traffica?

REPORT SEO a soli 47€

anzichè 197€+iva
Giorni
Ore
Minuti
Secondi