Come Evitare le Penalizzazioni di Google

Panda e Penguin sono le 2 bestie nere (anzi, bianconere 😀 ) dei SEO.

I 2 animali dello zoo di Google, liberati rispettivamente a Febbraio del 2011 e ad Aprile del 2012, colpiscono con cadenze più o meno regolari i siti web di coloro che disattendono le norme di Google, spazzandoli via dalle SERP del motore di ricerca per far posto a risultati di miglior qualità.

Per semplificare al massimo, il primo (Panda) è più focalizzato ai contenuti (e quindi all’on-page), mentre il secondo (Penguin) si concentra sui link (e quindi sull’off-page).

Son quasi certo che questi ritocchini algoritmici continueranno ancora per lungo tempo, magari con altre sfumature o altri nomi, ma il concetto di fondo non cambierà mai: Google vuole eliminare dai suoi risultati tutto ciò che è inutile, ingannevole e spammoso, penalizzando ciò che può danneggiare l’immagine del motore di ricerca e ciò che non è di reale utilità per i suoi utenti.

Nei giorni scorsi, Kevin Indig di Searchmetrics ha pubblicato un post dal titolo 5 ways to definitely get hit by a Panda algorithm penalty, che spiega – come dice il titolo stesso – come fare ad essere penalizzati dal Panda (e, andando per sottrazione, anche come fare a NON essere penalizzati).

In realtà, leggendo bene l’articolo, emergono dei concetti che sono validi non solo per l’orsetto bianconero, ma anche per molti dei piccoli e grossi cambiamenti algoritmici che Google ha effettuato negli ultimi anni e mirati a chi ha esagerato con la SEO on-page.

Ho quindi pensato di tradurre le parti più significative del post in italiano, e di riproporle sul mio blog: eccole qui sotto (con qualche mia piccola aggiunta/modifica), mentre in coda ho aggiunto una parte relativa ai link (e quindi all’off-page).

Come NON Essere Penalizzato da Google (On-Page)

1. Brutti Contenuti

Se vuoi avere la certezza di essere colpito dal Panda, crea contenuti di pessima qualità. Questi contenuti possono essere divisi in 5 grosse categorie.

Contenuti “Sottili”: immagina ad esempio una pagina di categoria di un ecommerce, con poche righe di testo e centinaia di link verso i prodotti. Quello è sicuramente un contenuto thin (o come preferisco dire io, “inconsistente”). I motori di ricerca hanno bisogno di cibo (=buon contenuto) per determinare la rilevanza di una pagina rispetto ad una query. Quello che possono leggere su una pagina è il contenuto, e poco contenuto significa poco cibo. Senza contenuto non possono capire il tema trattato dalla pagina, e lo stesso vale – ovviamente – per l’utente.

Contenuti Generati Automaticamente, o “Spinnati”: ci sono webmaster che, per riempire le pagine dei loro siti di contenuti, creano un testo praticamente uguale per ogni pagina, modificandone solo alcune piccole parti. Questa cosa non piace né ai motori di ricerca, né agli utenti. Anche se per certe tipologie di siti è difficile scrivere un contenuto molto diverso per ogni pagina, è importante che il contenuto sia il più possibile “personalizzato”, su misura per l’utente.

Contenuti Aggregati: un’altra tecnica utilizzata per creare rapidamente siti web e popolarli di pagine, è quella di aggregare contenuti provenienti da altre fonti. Ma attenzione: gli aggregatori, i siti di coupon/sconti e i comparatori di prezzi, sono state fra le tipologie di siti più colpite dal Panda. Se può aver senso utilizzare in piccola parte contenuti di terzi per arricchire i propri, non ha invece alcun senso copiarli integralmente.

Contenuti Duplicati: anche se la presenza di contenuti duplicati non costituisce una penalizzazione in senso assoluto, Google penalizza pesantamente i siti che copiano contenuti su larga scala. Se vuoi utilizzare lo stesso contenuto su più siti, fallo utilizzando cose come il rel=”canonical” o il meta tag noindex.

Contenuti Irrilevanti: quando un utente non trova sulla tua pagina la risposta alla sua domanda, se ne va. Una pagina potrebbe inizialmente sembrare rilevante al motore per una determinata query, ma poi non mantenere la promessa che fa nel titolo e nel contenuto. Google potrebbe analizzare il comportamento dell’utente sulla pagina in questione, per capire se questa è pertinente o meno per la ricerca effettuata. Su certi temi, una pagina molto vecchia potrebbe risultare irrilevante: immagina che pertinenza può avere oggi per la query [iPhone], una pagina creata 7 anni fa e relativa al primo modello del telefono. Mai sentito parlare di Freshness Update?

Suggerimento: un buon modo per determinare quanti e quali Bad Content hai sul tuo sito, è quello di analizzare il numero di pagine indicizzate rispetto a quelle effettivamente posizionate (e che ricevono traffico dai motori).

2. Segnali Negativi per gli Utenti

Come emerso anche all’interno dell’ultimo studio sui fattori di ranking di Searchmetrics, Google sembra porre parecchia attenzione al comportamento dell’utente. Controlla quindi:

Basso Tasso di Click: non sempre un buon posizionamento significa molti click. Se sei ben posizionato per una parola chiave ad alto traffico, ma noti che ottieni poche visite da Google verso la tua pagina, significa che il tuo snippet non attrae in alcun modo l’utente, o che qualcos’altro nella SERP ha guadagnato la sua attenzione.

Alta Frequenza di Rimbalzo: succede quando l’utente fa click sul tuo snippet ma poi torna rapidamente indietro sulla SERP. Non sempre questo parametro è negativo in senso assoluto: immagina un sito di risultati sportivi – l’utente entra, legge il risultato, e se ne va. L’ipotesi è quella che Google sia in grado di distinguere fra query che richiedono differenti frequenze di rimbalzo. Il consiglio è quello di analizzare regolarmente il bounce rate medio di tutte le pagine del sito, e rapportare poi questo valore con le singole pagine specifiche.

Poco Tempo Speso sul Sito: se, a livello generale, gli utenti spendono pochissimo tempo sul tuo sito, questo può essere un indicatore di contenuti di bassa qualità.

Bassa Quantità di Visitatori di Ritorno: se gli utenti non tornano più sul tuo sito dopo averlo visitato, non è un buon segnale. Gli ottimi contenuti (soprattutto se si tratta di “contenuti sempreverdi“) vengono consumati più e più volte, e anche questo è un segnale che si suppone possa determinare il contenuto di alta qualità per Google.

Suggerimento: identifica e ottimizza/rielabora le pagine che hanno un bounce rate alto, in modo che “trattengano” l’utente più a lungo. Prova anche ad utilizzare alcuni trucchi per aumentare le pagine visualizzate.

3. Cattiva Usabilità

Usabilità e user experience sono materie a parte, ma se ti occupi di SEO nel 2014 è necessario conoscere, almeno a grandi linee, queste 2 discipline.

Design/Layout: avere un design molto vecchio, o molto brutto, è un invito a far scappare via gli utenti. Anche se il concetto di “brutto” è molto soggettivo, evita assolutamente il design utilizzato dai siti di spam, visto che il tuo sito non è di quel genere. Aggiornare costantemente il tuo sito e “rinfrescare” periodicamente il layout, è una buona pratica per migliorare la user experience.

Navigazione: agli utenti vanno forniti percorsi di navigazione intuitivi, che permettano loro di trovare i prodotti e i contenuti presenti sul tuo sito nel modo più semplice e istintivo possibile. Una sapiente gestione dei link interni è utile anche per far fluire correttamente il link juice e il PageRank all’interno del sito.

Versione Mobile: sempre più utenti fruiscono dei siti web tramite tablet o smartphone. E’ quindi fondamentale che tali accessi vengano reindirizzati ad una versione mobile del sito, o – meglio ancora – sarebbe bene passare al più presto ad un design di tipo responsive.

Errori 404: quando un URL non esiste, è bene mostrare all’utente una pagina 404. Tali pagine dovrebbero essere ottimizzate per fornire comunque una risposta utile, come ad esempio un modulo di ricerca o una serie di suggerimenti e link verso altre risorse presenti sul sito.

Velocità del Sito: la velocità è un fattore di posizionamento, che impatta moltissimo sulla user experience. Se hai il miglior contenuto possibile, ma un sito lentissimo a caricare, farai scappare via gli utenti: lavora quindi per ottimizzare e velocizzare al massimo la fruizione dei tuoi contenuti.

Annunci Pubblicitari: togliere tutti i banner ti impedirà di far soldi, ma metterne troppi ti porterà un sacco di problemi. Un eccesso di banner può infatti farti penalizzare, sia dal Panda che dal Top Heavy algorithm, e offre una pessima user experience all’utente.

Flash: Flash e tutti gli altri formati che non funzionano sui dispositivi mobili dovrebbero essere evitati.

4. Bassa Affidabilità

Se desideri fidelizzare gli utenti, devi creare un sito affidabile. Rendere il tuo brand riconoscibile e affidabile spingerà gli utenti a cliccare sul tuo snippet non appena vedono il tuo marchio nelle SERP dei motori di ricerca.

Ecco un elenco di consigli per migliorare l’affidabilità per tuo sito:

  • fornisci informazioni di contatto e il tuo indirizzo
  • integra simboli e loghi che mostrino all’utente che il suo sito è sicuro (consiglio valido soprattutto per gli ecommerce)
  • fornisci una informativa sulla privacy
  • mostra le recensioni che hai ricevuto, e le testimonianze positive
  • evita errori grammaticali e di ortografia
  • utilizza una connessione HTTPS
  • mostra il tuo portafoglio clienti
  • mostra i riconoscimenti e i premi ricevuti, e i comunicati stampa che parlano di te
  • crea una pagina “chi siamo” con la tua biografia/la storia della società
  • evita un eccesso di annunci pubblicitari, soprattutto se fastidiosi

Più sarai affidabile, più riuscirai ad ottenere conversioni (e vendite).

5. Sovraottimizzazione

Ottimizzare in modo esagerato il tuo sito, ti porterà quasi certamente ad una penalizzazione.

Un testo eccessivamente ottimizzato, può essere facilmente rilevato da una semplice lettura. Puoi immediatamente “percepire” la differenza fra un testo scritto in modo naturale, e uno scritto per i motori di ricerca. Inserire qualche volta la parola chiave nel testo che stai scrivendo è una buona norma, ma il concetto di keyword density è superato da una vita. Se ha senso inserire la parola chiave nel titolo, nell’URL e nel testo, oggi è molto più importante coprire l’intero contesto con termini semanticamente rilevanti.

A livello di link interni, meglio invece sempre linkare in modo naturale ed evitare un eccesso di link con la stessa identica àncora ottimizzata per la stessa keyword.

Come NON Essere Penalizzato da Google (Off-Page)

L’on-page sta al Panda come l’off-page sta al Penguin: in quest’ultima parte del post parlerò dei backlink (ovvero i link che da siti esterni puntano verso il tuo) e di come questi NON dovrebbero essere.

Da un certo punto di vista è anche la parte più semplice e lineare, visto che è riassumibile in 2 soli concetti:

  1. Google NON vuole link innaturali
  2. Google NON vuole link artificiali creati con il solo scopo di migliorare il posizionamento di una pagina sul motore di ricerca

Se vogliamo scendere nei dettagli:

  • Google NON vuole la compravendita di link
  • Google NON ama lo scambio link, soprattutto se eccessivo e sistematizzato
  • Google NON ama i link provenienti da siti di scarsa qualità (come certi siti di article marketing o di comunicati stampa, o certe directory)
  • Google NON ama i link ripetuti in certe posizioni (ad esempio nel footer dei siti)
  • Google NON ama i link con anchor text troppo ottimizzato e/o sempre uguale
  • Google potrebbe penalizzare il tuo sito se riceve un gran numero di link da siti di pessima qualità (ma per fortuna c’è il Disavow Links Tool)

La maggior parte di questi punti sono toccati nella pagina “Schemi di Link” inclusa nella guida di Google, che ti consiglio di tenere sempre ben presente.

Quali sono i link apprezzati da Google?

Google NON vuole che tu riceva dei link che in qualche modo “ti aspetti”. NON vuole che li ottieni in modo facile.

Google ama i link ottenuti con fatica: “gli easy link saranno sempre vulnerabili. Gli unici link che contano, quelli che ti permetteranno di vincere, sono gli hard link (disse un paio d’anni fa Danny Sullivan).

Concludendo

Panda, Penguin e gli altri animaletti di Google, quando colpiscono un sito, possono arrivare ad azzerargli quasi totalmente il traffico.

Se segui queste semplici linee guida, se punti sempre alla qualità e alla soddisfazione dell’utente, senza forzare la mano e senza usare trucchetti di bassa lega, cercando di lavorare sul lungo periodo nel modo più naturale e “biologico” possibile, sarai probabilmente immune da tutte le penalizzazioni dei motori di ricerca, presenti e future.

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

5 Comments

  • Basta affidarsi al buon senso (perché noi SEO ce l’abbiamo un minimo di buon senso, vero!?) per evitare di compiere gran parte delle “azioni cattive”.
    Nulla da dire riguardo la lista di Kevin, però secondo me hanno tralasciato un fattore che è molto importante, seppur sottovalutato: la negative SEO.
    È difficile che un malintenzionato possa “causarti” una penalizzazione Panda, ma può farlo con Penguin se si adopera con negative SEO di massa e continuata nel tempo. Le persone colpite da Penguin, generato da negative SEO, devono subire anche una seconda umiliazione (danno e beffa): devono aspettare il refresh del successivo Penguin per poter recuperare al 100% i posizionamenti (a meno che non intendano buttare il dominio e prenderne un altro).
    Se consideriamo che tra 3 giorni festeggiamo un anno dall’uscita dell’ultimo Penguin, possiamo ben capire che aspettare un anno per risolvere una penalizzazione non causata da te può essere veramente frustrante.

  • E’ sempre piu’ complicato… per esempio non sapevo che anche i link interni troppo ottimizzati potevano essere causa di problemi…. grazie dell’informazione

  • @Nick
    Qualsiasi fattore on-page deve essere “ragionato” e ottimizzato.
    “Troppo” ottimizzati significa ottimizzati male, quindi minor valore rispetto ad un fattore ottimizzato… o addirittura valore negativo, ergo penalizzante. Dobbiamo vedere il “troppo ottimizzato” come qualcosa che è stato pensato e realizzato male.
    Poi, ovviamente, quello che era “buono” 10 anni fa è diverso da quello che lo è oggi. In epoche “remote” facevi i miracoli (ma anche di più) con i link interni. Fatti allo stesso modo, oggi sono penalizzanti.
    Per riuscire a fare ottimizzazioni on-page (direi più on-site), servono: (1) conoscenza di base, (2) visione d’insieme (3) ed il caro “buon senso” ricordato da Danilo.

  • Un’analisi davvero ottima. Sei uno dei pochi che oltre ai “report” aggiunge anche suggerimenti concreti 😉

    Luca.

  • Grazie per le dritte.
    Essendo un “profano” del settore sono state molto utili!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy