I fattori di posizionamento su Google del 2013, secondo Searchmetrics

Come lo scorso anno, lo studio “Ranking Factors – Rank Correlation 2013” di Searchmetrics affronta il tema dei fattori che differenziano un sito ben posizionato da uno che si trova più indietro nei risultati organici di Google, cercando di comprenderne le correlazioni.

Rispetto al 2012, sono stati considerati più fattori di posizionamento all’interno dell’analisi, con l’obiettivo di rispondere alla domanda: Che cosa hanno in comune le pagine ben posizionate su Google, e in cosa sono diverse dalle pagine posizionate peggio?

Quali sono i fattori in campo?

Fattori di posizionamento USA - 2013

Qui sopra sono evidenziati tutti i principali fattori, col rispettivo indice di correlazione: sono tutti i fattori che Searchmetrics ha analizzato, e che considera rilevanti. Nell’immagine viene presentata la relazione fra i risultati della ricerca su Google e l’influenza dei vari fattori, in base alla correlazione di Spearman (=è presente un alto coefficiente di correlazione positivo per un determinato fattore se le pagine ben posizionate su Google includono quella caratteristica (o più di una caratteristica), mentre le pagine posizionate peggio non hanno quella caratteristica (o ne hanno meno)).

1. Le parole chiave nei link e nei domini hanno perso rilevanza

L’importanza delle parole chiave all’interno di URL/domini è significativamente diminuito, rispetto al 2012:

Keyword nei nomi a dominio e URL

in base allo studio di Searchmetrics, questi 2 fattori sono considerati “perdenti” se comparati allo scorso anno, perché la presenza di parole chiave nell’URL e/o nel dominio ha perso di importanza. La cosa influenza anche i backlink, quando si tratta di link testuali con dentro la keyword. Sembra dunque che i giorni dell'”ottimizzazione secca delle parole chiave” siano finiti. Google sta ponendo molta più enfasi ai link naturali. I link con la parola chiave secca hanno perso parecchia influenza e probabilmente – quando usati in eccesso – possono avere effetti negativi (vedi le ultime modifiche di Google all’algoritmo, atte a sminuire il valore dei “bad link”).

2. I brand sono spesso le eccezioni alle regole

I brand sono trattati meglio da Google?

Lo scorso anno, i brand hanno mantenuto una posizione privilegiata. La cosa è stata confermata anche nello studio di quest’anno: per i brand – e i loro siti web – i motori non sembrano applicare gli stessi criteri che applicano agli altri domini. Per esempio, sembra che Google consideri naturale che un brand riceva moltissimi backlink con la chiave secca nell’anchor text – quello che viene chiamato “brand link” – senza esserne penalizzato.

3. I “segnali sociali” continuano ad essere molto ben correlati ad un buon posizionamento

I segnali sociali

La tendenza negli ultimi anni è stata molto positiva – e lo studio di quest’anno conferma quanto era già evidente nel 2012: gli URL ben posizionati hanno un gran numero di like, condivisioni, tweet e +1, e quelli che stanno ai primi posti nelle SERP hanno una enorme massa di “segnali sociali”. Da un lato ciò sta a significare che l’attività sui social continua ad aumentare, e dall’altro che i contenuti condivisi più di frequente sono sempre correlati ad un buon posizionamento. Una curiosità: se il tasso di crescita delle condivisioni di Facebook e di Google+ dovesse rimanere costante, Google+ supererà Facebook all’inizio dell’anno 2016.

4. I buoni contenuti sono sempre importanti: la qualità paga!

Nell’analisi delle caratteristiche dei contenuti, Searchmetrics ha aumentato significativamente il numero di fattori rispetto all’anno precedente:

L'importanza dei buoni contenuti

i content factor sono praticamente sempre correlati ad un buon posizionamento e apparentemente – quando comparati all’anno scorso – hanno pure guadagnato qualcosa. Il buon posizionamento di un URL è legato ad una quantità di testo maggiore e ad una maggior integrazione di media addizionali (ovvero immagini e video) rispetto al 2012. Anche una buona struttura di link interna sembra essere un attributo di qualità importante.

5. Quantità e qualità dei backlink rimangono immensamente importanti

L'importanza dei backlink

I backlink continuano ad essere una delle metriche più importanti per la SEO. In questo campo, poco è cambiato nel corso degli anni: i siti con più backlink si sono sempre posizionati meglio, e questo risulta anche dello studio di Searchmetrics del 2013. Ci sono però alcuni fattori, all’interno di questa metrica, ad essere in evoluzione: non solo la quantità di backlink è importante, ma lo è sempre di più la qualità!

6. Anche i fattori on-page rimangono alla base del successo

I fattori on-page

I fattori on-page che circondano il lato tecnico della creazione di un sito web, sono stati a lungo alla base di un buon posizionamento sui motori di ricerca – e continuano ad esserlo. Guardando la cosa al contrario, sembra che non seguire determinati criteri possa impattare negativamente sul ranking. I fattori on-page possono dunque essere considerati un prerequisito per un buon posizionamento nelle SERP di Google. Fra i fattori emergenti, spicca la velocità del sito.

Conclusioni

I motori di ricerca usano gli algoritmi per valutare l’argomento di un sito web, e la sua rilevanza.

Su questa base, i motori creano una “struttura” di tutte le pagine presenti nei loro indici, che si traduce nella miglior risposta possibile alle interrogazioni dell’utente. Il criterio per la valutazione di un sito web e il suo posizionamento vengono generalmente chiamati “ranking factor“, ovvero fattori di posizionamento.

E’ importante tener presente la differenza fra correlazione e causalità. In questo studio non si discute degli effetti causati dai fattori sul posizionamento, ma si analizzano le correlazioni: la coesistenza di un fattore e il posizionamento, indica appunto una relazione fra le 2 cose.

Lo studio riguarda gli Stati Uniti – [lo scorso anno Searchmetrics ha fatto anche uno studio su dati italiani, con lievi differenze rispetto a quello USA] – e sono stati analizzati:

• 30.000 SERP
• 300.000 title, description, URL
• circa 4,3 miliardi di backlink
• circa 600.000 annunci AdSense
• circa 150 GB di dati grezzi
• circa 1,25 miliardi di condivisioni di Facebook
• circa 12,95 miliardi di like di Facebook
• circa 600 milioni di commenti di Facebook
• circa 1 miliardo di tweet
• circa 330 milioni di +1 di Google
• circa 14,5 milioni di pin

Vuoi migliorare il posizionamento del tuo sito? Rivolgiti ad un consulente SEO attivo su Internet dal 1995!
Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

17 Comments

  • Complimenti per l’interessante articolo! Searchmetrics ci aiuta ad avere un quadro chiaro della situazione SEO anno per anno.

  • Ottimo, ho spolpato questo post interessantissimo.

  • Molto molto interessante, direi che è da stampare ed appendere per andare a rileggerselo ogni tanto

  • Il fattore che a me sta sempre più caro è la velocità delle pagine, soprattutto nel caricamento del DOM.
    Molto bene il numero di immagini presenti e soprattutto il numero interno dei link!
    Buon posizionamento a tutti! 🙂

  • Ciao,
    grazie della pubblicazione di questo articolo; unica cosa mi piacerebbe approfondire di più sulla velocità come fattore di ranking. Ultimamente ho letto molti parere autorevoli e discordanti su questo punto; personalmente credo che in minima parte influisca…

    Un saluto e buona giornata!

  • #Delizard io ritengo che la velocità venga subito dopo i contenuti:seguita da una buona navigabilità e link validi ! (si vedono ancora tanti errori in giro ! )
    Ciao e buon contenuto originale

  • Ti seguo da un po’ Taglia, e devo dire che con i tuoi post ci capisco un po’ di più su certi argomenti… . Tuttavia qualche domanda rimane sempre, ad esempio con tutto questo agevolare i social network non renderà la gente troppo pigra? Ultimamente mi sono osservato e ho notato che pure io non visito più i blog “perché tanto se scrivono qualcosa di nuovo lo postano su Feisbuc”. 😀

  • @ser: è vero, la gente oggi sta fissa sui social, quindi la tecnica, per chi ha un sito/blog, è quella di mettere delle “esche” nei social per portare traffico verso la tua risorsa esterna… insomma, i social vanno utilizzati come cassa di risonanza, come luogo dove intercettare gli utenti interessati ai temi che tratti sul tuo blog, e portarli lì.

  • Un tempo scrissi un articolo sulla differenza tra correlazione e causalità, arrabbiandomi non poco riguardo l’imprecisione delle statistiche ( http://www.espertoseo.com/blog/le-statistiche-sono-una-cosa-seria-anche-nella-seo ) e questa volta ribadisco il mio pensiero: le correlazioni sono utili in numerosi campi della statistica, ma non nella SEO, per questo considero la ricerca di searchmetrics totale spazzatura. (addirittura, secondo me, è un’analisi negativa: rischia di dare informazioni ambigue sopratutto a chi si avvicina alla SEO da poco tempo). Non vorrei che qualcuno, dopo aver visto l’inutile grafico di searchmetrics, si mettesse a acquistare chili e chili di fb shares con la, folle, pretesa di migliorare minimamente il ranking di una pagina..

    @delizard: riguardo la velocità di caricamento mi trovi d’accordo. I “pareri autorevoli” che hanno detto che la velocità di caricamento non è un fattore di ranking, purtroppo, non me l’hanno mai dimostrato =) Il test da fare è chiaro, semplice e immediato: se avete una pagina X posizionata in Google in modo stabile, provate a prendere tutte le immagini, trasformarle in gigantografie tipo 9500×9500 e a scalarle in css, questo lascerà inalterato il contenuto, i meta, ecc, ma incrementerà solo e unicamente la velocità di caricamento di parecchi secondi: aspettate 2/3 settimane e provate a dirmi se siete ancora in cima a Google. Meglio che il test lo fate con una pagina a cui siete poco affezionati, datemi retta… 😉

  • @Danilo: quest’anno mi sembra che Searchmetrics abbia voluto enfatizzare il fatto (anche solo per il nome che ha detto alla ricerca… “Ranking Factors – Rank Correlation”, e non semplicemente “Ranking Factors”) della correlazione, ovvero: una pagina ben posizionata su Google riceve solitamente molti “apprezzamenti sociali”, ma NON è dimostrato che sono questi apprezzamenti a posizionarla.

    Concordo però con te che l’utente superficiale tende a guardare il primo grafico della ricerca, e a trarne le sue conseguenze sbagliate…

  • @Danilo: però facciamo anche un altro test. Prendiamo una pagina normale come ce ne sono tante. Uniamo i 7 file js che sta utilizzando in uno, stessa cosa per i 3 CSS, creiamo una sprite per le immagini di background, implementiamo il lazy loading per le immagini e vediamo se in 3 settimane cambia qualcosa.
    Bello l’articolo sulle correlazioni 😛

  • Studio molto interessante da analizzare con molta attenzione in particolare a mio avviso in relazione alla metriche di G+. Bel lavoro, complimenti.

  • Veramente interessante e utile come guida! vedrò di adeguare le mie ricerche sulla base, anche, di queste infos 😉

  • ho appena riletto questo utilissimo post ma non mi spiego una cosa: cosa significa che addirittura agli ultimissimi posti abbiamo le k-word nell’url e le k-word nel titolo? fino a un po’ di tempo fa erano praticamente le cose più importanti… non capisco, ora addirittura sono l’ultimo fattore utile?
    Stessa cosa, H1 influisce addirittura negativamente se contiene k-word?

  • Grazie delle informazioni, davvero utili. Ho creato da poco un sito e sto applicando tutti gli utili consigli. Ho analizzato concorrenza e “possibilità” convenienti per essere visibile su Google. Devo però dire che secondo me ci sono ancora moltissime cose che ancora non sappiamo, lo dimostra il molto più lento posizionamento rispetto a prima e gli innumerevoli cambiamenti che Google sta apportando. Cosa avranno in mente?

  • Salve, come proprietario di un sito di giochi trovo questo articolo davvero utile. Capisco l’esigenza del grande G di portare sempre di più la sua ricerca verso il social, ma due domande mi sorgono spontanee:
    1) come si schiera G difronte ad una sempre più vendita di like e g+? La ricerca potrebbe subirne?
    2) I siti appena nati? Quelli con 0 like (0.45%) ma con contenuti di qualità (0.15%) poco indicizzati partono con un piccolo svantaggio no?
    Grazie.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy