Frequenza di rimbalzo (Bounce Rate)

Da qualche tempo a questa parte, la comunità SEO si chiede sempre più insistentemente se Google abbia inserito nuovi parametri all’interno del suo algoritmo; oltre alla originalità dei contenuti, alla qualità dei link e agli altri elementi “storici”, si insinua il dubbio che vengano presi in considerazione (ad esempio) i click nei risultati nelle SERP.
Personalmente, vorrei porre invece l’accento su di un altro parametro: il Bounce Rate.
Conosciuto anche come frequenza di rimbalzo (o, con parole più crude, tasso di abbandono), misura coloro che “rimbalzano via” velocemente dal nostro sito dopo aver visto una sola pagina.
Con la nuova interfaccia grafica di Google Analytics, la Frequenza di rimbalzo è messa in bella evidenza, direttamente sulla pagina principale del servizio, insieme ad altri parametri strettamente legati a questa (come il rapporto pagine/visita e il tempo medio trascorso dall’utente sul sito):Ciò ha creato in alcuni il dubbio che Google abbia iniziato a tener conto del Bounce Rate nell’ambito del posizionamento delle pagine web all’interno delle sue SERP: un tasso di abbandono elevato e in tempi troppo brevi (diciamo sotto i 30 secondi), potrebbe far infatti supporre che l’utente non trovi utile/interessante la pagina sulla quale è atterrato, e quindi Google potrebbe farla scendere di posizione.
Si potrebbe però obiettare che non tutti i siti (e le pagine contenuti in essi) sono uguali; traducendo (liberamente) questo intervento su WebmasterWorld.com, esistono infatti almeno 6 tipologie di siti/pagine (e di visitatori) che generano un alto bounce rate:

  • un sito con una “splash intro” con un link del tipo “clicca qui per proseguire”;
  • un visitatore che sta confrontando vari siti per acquistare un prodotto online, e prende velocemente nota della pagina (=mette un bookmark) per poi tornarci successivamente;
  • un visitatore che sta sulla pagina per un tempo più lungo del timeout della stessa (può capitare su alcuni ecommerce);
  • un visitatore che trova immediatamente nella pagina la risposta che cercava;
  • un sito con annunci pubblicitari molto pertinenti: l’utente potrebbe trovare immediatamente nell’annuncio ciò che cerca (e quindi cliccarlo);
  • una pagina che riceve traffico con parole di carattere generale: solo una piccola parte di visitatori potrebbe quindi proseguire nella lettura di tali contenuti.

Aggiungerei a questi 6 punti il tipico caso di un blog: chi lo aggiorna quotidianamente, magari con post molto brevi e con una utenza affezionata, sa molto bene che il bounce rate è elevato (=mordo il post e fuggo senza proseguire su altre pagine).

In ogni caso, nel Centro assistenza di Google Analytics sono presenti più volte frasi del tipo:

  • “considera la riprogettazione delle pagine che presentano una frequenza di rimbalzo elevata tra quelle elencate”;
  • “una frequenza di rimbalzo elevata indica una pagina di destinazione che dovrebbe essere riprogettata o personalizzata per l’annuncio specifico al quale è collegata”;
  • “una frequenza di rimbalzo elevata in genere indica che le pagine di entrata (destinazione) non sono pertinenti per i tuoi visitatori. Puoi ridurre al minimo le frequenze di rimbalzo personalizzando le pagine di destinazione in base a ciascuna parola chiave e a ciascun annuncio pubblicato. Le pagine di destinazione dovrebbero fornire le informazioni e i servizi promessi nel testo dell’annuncio”.

Non è dato sapere quanto grosso deve essere il numerino percentuale per considerare elevata la frequenza di rimbalzo: sta di fatto che se utilizzate Google Analytics, avete un bounce rate elevato e iniziate inspiegabilmente a precipatare nelle SERP, provate magari ad eliminare momentaneamente il servizio di statistiche di Google dalle pagine incriminate… chissà che, magicamente, non tornino a decollare 🙂

P.S.: petro in questa discussione interviene indicando 2 interessanti link sull’argomento:
Proof Google is Using Behavioral Data in Rankings (su SEOmoz);
– Google bounce factor research data is in (su 1st Search Engine Rankings Seo Blog).

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

17 Comments

  • non ho capito una cosa: misurano anche i rimbalzi da richieste dirette ?
    il mio blog ha un’altra percentuale di richieste dirette (ho qualche lettore fedele :D) e penso non abbia molto senso misurare anche il rimbalzo di queste

  • stando a questo ragionamento, siccome ho un rimbalzo medio di oltre il 72%, dovrei aver notato un calo di accessi da G, cosa che non è.

    inoltre non penso che G possa mettere un parametro nell’algoritmo che può essere vuoto (se non si usa analytics) o pieno. Spingerebbe a non usare Analytics, alla fine 🙂

  • Fermi tutti, ho scritto nel post che “non è dato sapere quanto grosso deve essere il numerino percentuale per considerare elevata la frequenza di rimbalzo”… magari deve essere sopra (ipotizziamo) il 95%… e può darsi sia parametrato anche alla tipologia di sito (es.: un sito che sviluppa articoli su più pagine avrà un bounce rate sicuramente più basso di un blog costituito da mini-post…).
    E comunque son tutte supposizioni 🙂

  • Secondo me esiste già da tempo.

    Una volta feci un test di un mezzo spam engine e ovviamente aveva un bounce rate molto alto.

    Purtroppo avevo analytics installato quindi il bounce rate google poteva saperlo benissimo; dopo 2 ore che era indicizzato (ragazzi 2 ore) il sito era sparito.

    Sono convinto che, oltre ad altri controlli, google abbia potuto intervenire cosi in fretta grazie a quel parametro.

    Detto questo ovviamente era un BR di oltre il 98% per cui…non era un BR normale.

    bye.

  • Sulle Web analytics c’è molto da fare ancora. Ho fatto il moderatore alla sessione di Web analytics al SES di Milano a maggio.

    Ci sono ancora molte definizioni fondamentali “ballerine”. Per rimanere in tema sul tasso di abbandono ci sono programmi storici come le AWSTATS che lo misurano come il tempo di permanenza minimo non superire a 30 secondi. Ma questa assunzione non è universalmente accettata od utilizzata da tutti, per cui trovi anche chi ti misura il bounce rate come il numero di utenti che lasciano il sito entro i primi 10 secondi di visione (come Clicktracks ad esempio) – è il valore triplo rispetto al primo ed ovviamente cambia completamente lo scenario.

    C’è poi molta confusione tra visitatori unici e visite, tanto per buttare altra legna sul fuoco.

    Sul mio blog sto utilizzando le Google Analytics ed anche un altro soggetto ceh si chiama Quantcast.com ed i numeri sono molto simili – ho detto simili, ma non identici, eppure leggono entrambi gli stessi dati … ancora una volta un problema di definizioni e di software che combinati tra di loro danno (e daranno) sempre risultati diversi – almeno secondo me.

    In generale dico che bisogna avere la sensazione che le cose stanno andando bene, se cresce il numero di lettori (e di commenti) del blog, se arrivano più contatti per email, se la gente acquista.

    Se tu sei soddisfatto, se il sito gira a dovere, anche i motori di ricerca ne prenderanno atto e ti manderanno più traffico.

  • Anche il sito che sto curando ha una frequenza di rimbalzo, attraverso google Analytics, del 61,69%, e considerando che siamo presenti in quasi tutti i motori di comparazione e quindi relativo costo per click, la cosa è negativa anche sotto l’aspetto economico per i miei clienti, che vedono addebitarsi i costo del clik da un utente che scappa solo dopo 10 secondi.

    Accetto ben volentieri consigli per migliorare sia la frequenzadi rimbalzo che il relativosito.

  • Molto interessante questo articolo…da ignorante mi ero sempre chiesto cosa fosse questo tasso di rimbalzo e ora credo di aver capito…a me Google Analytic senga una frequenza di rimbalzo di circa il 43%…il sito: http://www.siatec.net/andrea/fotografia/ è attivo da poco ma le visite stanno iniziando a crescere e usando anche uno script php chiamato ph-stats vedo che giornalmente passano i crowler di Google e yahoo ed altri 2 scritti con librerie perl che analizzano parti del sito…poi il giorno dopo continuano passando ad altre pagine…devo essere ottimista e pensare che tutto stà andando bene?

  • Se aumentano le visite (di utenti e spider) è sicuramente un ottimo segnale.
    Ora arriva la fase difficile… devi
    a) cercare di “trattenere” gli utenti sul tuo sito;
    b) farli tornare e soprattutto
    c) fare in modo che da utenti si trasformino in clienti (sempre che il tuo sito non sia filantropico o senza scopo di lucro 🙂 ).

  • guarda il mio sito è quello publicato, è solo la galleria della mia attività fotografica…

  • mi piacerebbe solo sapere come utilizzare analytic con un blog di windows live spaces!!! grazie a tutti!!!

  • Grazie per la spiegazione. Anche se l’articolo è di 1-2 anni fa mi è stato utile per capire se questo paramentro deve essere basso o alto. Cioè… più è basso e meglio è, no?

  • Dipende dalla tipologia e dai contenuti del sito: per esempio, in un sito che fornisce numeri telefonici l’utente scapperà via pochi istanti dopo aver trovato ciò che cercava.
    Un sito con articoli lunghi e spezzati in più pagine, riuscirà invece con buona probabilità a trattenere gli utenti più a lungo…

  • Il pranzo mordi e fuggi non è molto salutare. Nemmeno l’utenza di quel tipo. Visto che la fidelizzazione è tra i migliori strumenti di mktg.

    Secondo me come dato è attendibile, in qualsiasi situazione.

  • Da un po’ di tempo a questa parte la gente considera google come un dio dell’olimpo, si sono scritti libri a proposito di google / seo di come impaginare, della correttezza dei tag, a non usare troppo javascript ecc.

    Be il primo a non usare questa politica è proprio google, guardate le sue pagine, la maggior parte sottoposte ad un validator risultano errate!

    Poi chi dice che meno di 30 secondi un sito non è interessante, pensate un servizio che indica l’ora esatta! oppure una serie di micro post…, i fatti del giorno…
    Certo che se ormai l’utente medio lo vediamo come un bradipo con la tazza del caffe e che le uniche cose che vede sul pc sono i film e facebook…
    lascio a voi i comenti…

  • Probabilmente il dato è anche in funzione del fatto che la provenienza sia da un motore di ricerca, dal tipo-quantità di parole della query, se provenga da un link ecc.; magari è un ottimo indicatore, ma bisogna identificare ben bene le tantissime variabili in gioco. Identificate tutte, forse Google ha trovato un sistema di giudizio automatico molto efficiente.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy