Panda e Penguin sono le 2 bestie nere (anzi, bianconere 😀 ) dei SEO. I 2 animali dello zoo di Google, liberati rispettivamente a Febbraio del 2011 e ad Aprile del 2012, colpiscono con cadenze più o meno regolari i siti web di coloro che disattendono le norme di Google, spazzandoli via dalle SERP del motore di ricerca per far posto a risultati di miglior qualità. Per semplificare al massimo, il primo (Panda) è più focalizzato ai contenuti (e quindi all’on-page), mentre il secondo (Penguin) si concentra sui link (e quindi sull’off-page). Son quasi certo che questi ritocchini algoritmici continueranno ancora per lungo tempo, magari con altre sfumature o altri nomi, ma il concetto di fondo non cambierà mai: Google vuole eliminare dai suoi risultati tutto ciò che è inutile, ingannevole e spammoso, penalizzando ciò che può danneggiare l’immagine del motore di ricerca e ciò che non è di reale utilità per i suoi utenti. Nei giorni scorsi, Kevin Indig di Searchmetrics ha pubblicato un post dal titolo 5 ways to definitely get hit by a Panda algorithm penalty, che spiega – come dice il titolo stesso – come fare ad essere penalizzati dal Panda (e, andando per sottrazione, anche come fare a NON essere penalizzati). In realtà, leggendo bene l’articolo, emergono dei concetti che sono validi non solo per l’orsetto bianconero, ma anche per molti dei piccoli e grossi cambiamenti algoritmici che Google ha effettuato negli ultimi anni e mirati a chi ha esagerato con la SEO on-page. Ho quindi pensato di tradurre le parti più significative del post in italiano, e di riproporle sul mio blog: eccole qui sotto (con qualche mia piccola aggiunta/modifica), mentre in coda ho aggiunto una parte relativa ai link (e quindi all’off-page).

Come NON Essere Penalizzato da Google (On-Page)

1. Brutti Contenuti

Se vuoi avere la certezza di essere colpito dal Panda, crea contenuti di pessima qualità. Questi contenuti possono essere divisi in 5 grosse categorie. Contenuti “Sottili”: immagina ad esempio una pagina di categoria di un ecommerce, con poche righe di testo e centinaia di link verso i prodotti. Quello è sicuramente un contenuto thin (o come preferisco dire io, “inconsistente”). I motori di ricerca hanno bisogno di cibo (=buon contenuto) per determinare la rilevanza di una pagina rispetto ad una query. Quello che possono leggere su una pagina è il contenuto, e poco contenuto significa poco cibo. Senza contenuto non possono capire il tema trattato dalla pagina, e lo stesso vale – ovviamente – per l’utente. Contenuti Generati Automaticamente, o “Spinnati”: ci sono webmaster che, per riempire le pagine dei loro siti di contenuti, creano un testo praticamente uguale per ogni pagina, modificandone solo alcune piccole parti. Questa cosa non piace né ai motori di ricerca, né agli utenti. Anche se per certe tipologie di siti è difficile scrivere un contenuto molto diverso per ogni pagina, è importante che il contenuto sia il più possibile “personalizzato”, su misura per l’utente. Contenuti Aggregati: un’altra tecnica utilizzata per creare rapidamente siti web e popolarli di pagine, è quella di aggregare contenuti provenienti da altre fonti. Ma attenzione: gli aggregatori, i siti di coupon/sconti e i comparatori di prezzi, sono state fra le tipologie di siti più colpite dal Panda. Se può aver senso utilizzare in piccola parte contenuti di terzi per arricchire i propri, non ha invece alcun senso copiarli integralmente. Contenuti Duplicati: anche se la presenza di contenuti duplicati non costituisce una penalizzazione in senso assoluto, Google penalizza pesantamente i siti che copiano contenuti su larga scala. Se vuoi utilizzare lo stesso contenuto su più siti, fallo utilizzando cose come il rel=”canonical” o il meta tag noindex. Contenuti Irrilevanti: quando un utente non trova sulla tua pagina la risposta alla sua domanda, se ne va. Una pagina potrebbe inizialmente sembrare rilevante al motore per una determinata query, ma poi non mantenere la promessa che fa nel titolo e nel contenuto. Google potrebbe analizzare il comportamento dell’utente sulla pagina in questione, per capire se questa è pertinente o meno per la ricerca effettuata. Su certi temi, una pagina molto vecchia potrebbe risultare irrilevante: immagina che pertinenza può avere oggi per la query [iPhone], una pagina creata 7 anni fa e relativa al primo modello del telefono. Mai sentito parlare di Freshness Update? Suggerimento: un buon modo per determinare quanti e quali Bad Content hai sul tuo sito, è quello di analizzare il numero di pagine indicizzate rispetto a quelle effettivamente posizionate (e che ricevono traffico dai motori).

2. Segnali Negativi per gli Utenti

Come emerso anche all’interno dell’ultimo studio sui fattori di ranking di Searchmetrics, Google sembra porre parecchia attenzione al comportamento dell’utente. Controlla quindi: Basso Tasso di Click: non sempre un buon posizionamento significa molti click. Se sei ben posizionato per una parola chiave ad alto traffico, ma noti che ottieni poche visite da Google verso la tua pagina, significa che il tuo snippet non attrae in alcun modo l’utente, o che qualcos’altro nella SERP ha guadagnato la sua attenzione. Alta Frequenza di Rimbalzo: succede quando l’utente fa click sul tuo snippet ma poi torna rapidamente indietro sulla SERP. Non sempre questo parametro è negativo in senso assoluto: immagina un sito di risultati sportivi – l’utente entra, legge il risultato, e se ne va. L’ipotesi è quella che Google sia in grado di distinguere fra query che richiedono differenti frequenze di rimbalzo. Il consiglio è quello di analizzare regolarmente il bounce rate medio di tutte le pagine del sito, e rapportare poi questo valore con le singole pagine specifiche. Poco Tempo Speso sul Sito: se, a livello generale, gli utenti spendono pochissimo tempo sul tuo sito, questo può essere un indicatore di contenuti di bassa qualità. Bassa Quantità di Visitatori di Ritorno: se gli utenti non tornano più sul tuo sito dopo averlo visitato, non è un buon segnale. Gli ottimi contenuti (soprattutto se si tratta di “contenuti sempreverdi“) vengono consumati più e più volte, e anche questo è un segnale che si suppone possa determinare il contenuto di alta qualità per Google. Suggerimento: identifica e ottimizza/rielabora le pagine che hanno un bounce rate alto, in modo che “trattengano” l’utente più a lungo. Prova anche ad utilizzare alcuni trucchi per aumentare le pagine visualizzate.

3. Cattiva Usabilità

Usabilità e user experience sono materie a parte, ma se ti occupi di SEO nel 2014 è necessario conoscere, almeno a grandi linee, queste 2 discipline. Design/Layout: avere un design molto vecchio, o molto brutto, è un invito a far scappare via gli utenti. Anche se il concetto di “brutto” è molto soggettivo, evita assolutamente il design utilizzato dai siti di spam, visto che il tuo sito non è di quel genere. Aggiornare costantemente il tuo sito e “rinfrescare” periodicamente il layout, è una buona pratica per migliorare la user experience. Navigazione: agli utenti vanno forniti percorsi di navigazione intuitivi, che permettano loro di trovare i prodotti e i contenuti presenti sul tuo sito nel modo più semplice e istintivo possibile. Una sapiente gestione dei link interni è utile anche per far fluire correttamente il link juice e il PageRank all’interno del sito. Versione Mobile: sempre più utenti fruiscono dei siti web tramite tablet o smartphone. E’ quindi fondamentale che tali accessi vengano reindirizzati ad una versione mobile del sito, o – meglio ancora – sarebbe bene passare al più presto ad un design di tipo responsive. Errori 404: quando un URL non esiste, è bene mostrare all’utente una pagina 404. Tali pagine dovrebbero essere ottimizzate per fornire comunque una risposta utile, come ad esempio un modulo di ricerca o una serie di suggerimenti e link verso altre risorse presenti sul sito. Velocità del Sito: la velocità è un fattore di posizionamento, che impatta moltissimo sulla user experience. Se hai il miglior contenuto possibile, ma un sito lentissimo a caricare, farai scappare via gli utenti: lavora quindi per ottimizzare e velocizzare al massimo la fruizione dei tuoi contenuti. Annunci Pubblicitari: togliere tutti i banner ti impedirà di far soldi, ma metterne troppi ti porterà un sacco di problemi. Un eccesso di banner può infatti farti penalizzare, sia dal Panda che dal Top Heavy algorithm, e offre una pessima user experience all’utente. Flash: Flash e tutti gli altri formati che non funzionano sui dispositivi mobili dovrebbero essere evitati.

4. Bassa Affidabilità

Se desideri fidelizzare gli utenti, devi creare un sito affidabile. Rendere il tuo brand riconoscibile e affidabile spingerà gli utenti a cliccare sul tuo snippet non appena vedono il tuo marchio nelle SERP dei motori di ricerca. Ecco un elenco di consigli per migliorare l’affidabilità per tuo sito:

  • fornisci informazioni di contatto e il tuo indirizzo
  • integra simboli e loghi che mostrino all’utente che il suo sito è sicuro (consiglio valido soprattutto per gli ecommerce)
  • fornisci una informativa sulla privacy
  • mostra le recensioni che hai ricevuto, e le testimonianze positive
  • evita errori grammaticali e di ortografia
  • utilizza una connessione HTTPS
  • mostra il tuo portafoglio clienti
  • mostra i riconoscimenti e i premi ricevuti, e i comunicati stampa che parlano di te
  • crea una pagina “chi siamo” con la tua biografia/la storia della società
  • evita un eccesso di annunci pubblicitari, soprattutto se fastidiosi

Più sarai affidabile, più riuscirai ad ottenere conversioni (e vendite).

5. Sovraottimizzazione

Ottimizzare in modo esagerato il tuo sito, ti porterà quasi certamente ad una penalizzazione. Un testo eccessivamente ottimizzato, può essere facilmente rilevato da una semplice lettura. Puoi immediatamente “percepire” la differenza fra un testo scritto in modo naturale, e uno scritto per i motori di ricerca. Inserire qualche volta la parola chiave nel testo che stai scrivendo è una buona norma, ma il concetto di keyword density è superato da una vita. Se ha senso inserire la parola chiave nel titolo, nell’URL e nel testo, oggi è molto più importante coprire l’intero contesto con termini semanticamente rilevanti. A livello di link interni, meglio invece sempre linkare in modo naturale ed evitare un eccesso di link con la stessa identica àncora ottimizzata per la stessa keyword.

Come NON Essere Penalizzato da Google (Off-Page)

L’on-page sta al Panda come l’off-page sta al Penguin: in quest’ultima parte del post parlerò dei backlink (ovvero i link che da siti esterni puntano verso il tuo) e di come questi NON dovrebbero essere. Da un certo punto di vista è anche la parte più semplice e lineare, visto che è riassumibile in 2 soli concetti:

  1. Google NON vuole link innaturali
  2. Google NON vuole link artificiali creati con il solo scopo di migliorare il posizionamento di una pagina sul motore di ricerca

Se vogliamo scendere nei dettagli:

  • Google NON vuole la compravendita di link
  • Google NON ama lo scambio link, soprattutto se eccessivo e sistematizzato
  • Google NON ama i link provenienti da siti di scarsa qualità (come certi siti di article marketing o di comunicati stampa, o certe directory)
  • Google NON ama i link ripetuti in certe posizioni (ad esempio nel footer dei siti)
  • Google NON ama i link con anchor text troppo ottimizzato e/o sempre uguale
  • Google potrebbe penalizzare il tuo sito se riceve un gran numero di link da siti di pessima qualità (ma per fortuna c’è il Disavow Links Tool)

La maggior parte di questi punti sono toccati nella pagina “Schemi di Link” inclusa nella guida di Google, che ti consiglio di tenere sempre ben presente.

Quali sono i link apprezzati da Google?

Google NON vuole che tu riceva dei link che in qualche modo “ti aspetti”. NON vuole che li ottieni in modo facile. Google ama i link ottenuti con fatica: “gli easy link saranno sempre vulnerabili. Gli unici link che contano, quelli che ti permetteranno di vincere, sono gli hard link (disse un paio d’anni fa Danny Sullivan).

Concludendo

Panda, Penguin e gli altri animaletti di Google, quando colpiscono un sito, possono arrivare ad azzerargli quasi totalmente il traffico. Se segui queste semplici linee guida, se punti sempre alla qualità e alla soddisfazione dell’utente, senza forzare la mano e senza usare trucchetti di bassa lega, cercando di lavorare sul lungo periodo nel modo più naturale e “biologico” possibile, sarai probabilmente immune da tutte le penalizzazioni dei motori di ricerca, presenti e future.