Come sconfiggere il Panda Update

Al SMX West di qualche giorno fa il tema predominante è stato quello delle content farm. In una sessione era presente Luke Beatty, fondatore di Associated Content (considerata da molti una content farm), e si è parlato di cosa può fare un sito colpito dal Google Panda Update per riguadagnare le posizioni perse all’interno delle SERP del motore di ricerca.

Contemporaneamente, sul Google Webmaster Central forum vari webmaster stanno discutendo del problema. In sintesi, possiamo ricavarne questa lezione:

• contenuti di qualità sostanzialmente bassa possono causare la perdita di ranking dell’intero sito (anche se questo ha pagine di alta qualità)
• cerca le pagine di bassa qualità (non utili, scritte male, duplicate o inconsistenti) e rimuovile
• l’esperienza complessiva dell’utente è importante: design, usabilità, rapporto fra pubblicità e contenuti, percezione del brand
• verifica sia i contenuti che il template del sito (è un template che inserisce un sacco di pubblicità nelle pagine? viene mostrata all’utente un’interfaccia scadente?)
• una volta che sei certo che i contenuti sono di alta qualità, poni attenzione a engagement e awareness (attraverso i social media e altri canali)
• diversifica in vari canali e persino all’interno della ricerca, guarda al di là della web search verso Google News e i risultati “one box” come blog, immagini e video
• possiamo imparare qualcosa dalle content farm, in particolare il loro modo di individuare ciò che interessa al pubblico e le risposte che vogliono dare, nonché le tecniche che utilizzano per sfruttare il crowdsourcing

Il messaggio ufficiale di Google è questo: contenuti di bassa qualità su una parte del sito possono impattare sul posizionamento di tutto il sito.

Google ha detto:

“Il nostro ultimo update è pensato per ridurre il ranking dei siti di scarsa qualità, quindi la cosa fondamentale per i webmaster è assicurarsi che i loro siti abbiano la più alta qualità possibile. Noi esaminiamo diversi fattori per individuare i siti di bassa qualità. Tenete a mente che le persone che cercano in Google tipicamente non vogliono trovare contenuti superficiali o scritti male, contenuti copiati da altri siti o informazioni inutili. Inoltre, è importante che i webmaster sappiano che i contenuti di bassa qualità su una parte del sito possono impattare sul posizionamento di tutto il sito. Per questo motivo, se credi che di essere stato colpito dal nostro update dovresti controllare tutti i contenuti del tuo sito e migliorare la qualità complessiva delle pagine del tuo dominio. Togliere le pagine di scarsa qualità o spostarle su un dominio diverso potrebbe aiutarti a posizionare meglio i tuoi contenuti di qualità.”

Riassumendo in 3 punti:

1) Questo algoritmo si indirizza specificatamente ai siti di scarsa qualità (non necessariamente alle content farm) che contengono:
• contenuti superficiali (non sufficienti ad essere considerati utili)
• contenuti scritti male
• contenuti copiati da altri siti
• contenuti che non sono utili

2) Un sito con una parte di contenuti di scarsa qualità può essere penalizzato interamente

3) Rimuovere i contenuti di scarsa qualità dal sito può aiutare a posizionare meglio quelli di alta qualità

Una frase chiave è “le informazioni che non sono utili”: non è quindi sufficiente che i contenuti siano unici e prolissi. E un’altra chiave è che pagine di alta qualità possono perdere posizioni, messe in ombra dalle pagine di scarsa qualità presenti sul sito.

Liberamente tratto da The Farmer/Panda Update: New Information From Google and The Latest from SMX West, di Vanessa Fox.

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

34 Comments

  • Vorrei capire come google riesce a trovare un contenuto di un sito scritto male, fa l’analisi logica di ogni frase?!?!? 😀

    Credo che alla fine il fatto che google sponsorizza che i contenuti siano “utili” sia fondamentale, quante volte si cerca una cosa su google e si è costretti ad arrivare a scorrere le prime pagine perché trai risultati sono finiti siti che hanno raggirato l’algoritmo di google e sono arrivati in un’ottima posizione.

    Il fattore chiave è come google riuscirà a distinguere un sito con contenuti “inutili” e di scarsa qualità da un sito con informazioni utili e di ottima qualità.

    Questo credo sia fondamentale capire quali sono i fattori che incidono alla qualità e all’utilità del contenuto.

  • @giuseppe Hai mai sentito parlare di learning machines? È il sistema che utilizza Google per ottimizzare l’algoritmo, insieme ad altre cose. In realtà non è così difficile scoprire le fonti originali di un testo (anche tradotto… attenti copioni… ovviamente non faccio riferimento a te Tagliaerbe, perché le fonti le citi).

    Approfitto per segnalarvi un altro post di qualche giorno fa e scritto dal mio amico Tom Cricthlow nel blog di Distilled e che individua anch’esso un metodo per evitare di essere penalizzati da Panda: http://searchengineland.com/the-farmerpanda-update-new-information-from-google-and-the-latest-from-smx-west-67574

    Ah… sappiatelo: Panda non è ancora attivo nei Google regionali, come il Google.it, quindi avete ancora (poco) tempo per aggiustare i vostri content farm 😉

  • @pomhey
    Ti stai dimenticando una cosa nel tuo post: la presenza asfissiante di annunci pubblicitari (Adsense e/o banner di affiliazione).
    I content farm hanno come scopo quello di spammare i risultati di ricerca per il maggior numero di long tail, e così guadagnare con i clicks sugli annunci originati dall’enorme traffico generato.

    A proposito, il tuo blog stesso dovrebbe rivedere dove pubblicare il blocco di Adsense, perché lì dove è messo potrebbe essere indizio – per Google – di content farm.

  • @Gianluca

    No, non lo conoscevo, i contenuti tradotti in maniera automatica si possono facilmente capire quali sono, ma i contenuti scritti male da una persona e non da un computer come può “trovarli” ecco quale era il mio dubbio poi per il resto sono d’accordo con la loro politica che i siti devono essere con contenuti originali ed utili.

  • • l’esperienza complessiva dell’utente è importante: design, usabilità, rapporto fra pubblicità e contenuti, percezione del brand.

    Direi che era anche ora!
    Grazie per il post

  • Era anche ora nel senso che così come Google sente ‘puzza di SEO’ la sentono anche gli utenti.

    Era ora perché penso non sia giusto che l’utente legga 400 caratteri tra ‘decine’ di pubblicità tra affiliazioni, banner ed adsense.

    Penso che non sia giusto non solo per l’utente, ma anche per tutti quei creativi del web che producono prodotti ad arte (anche perfettamente ottimizzati) che vengono scavalcati in serp da siti che non meriterebbero attenzione, perché hanno come unico obiettivo la pubblicità e si comportano come raffinati spammer.

    Stiamo osservando come Google si stia spostando sempre più verso la qualità del contenuto (che comunque resta il RE) piuttosto che la quantità (non è passato molto tempo da quando bastava riempire il metatag kw).

    E da tutto ciò… penso… che ne gioveremo tutti.
    Secondo voi non ne gioveremo tutti?

  • e siti come pagine gialle..aziende.it..o mr. imprese come saranno colpiti dal panda??
    non hanno articoli quindi no contenuti.. le pagine sono brevi..

  • Pagine gialle e siti di utilità reale hanno anche un certo trust rank e google li ri-conosce. Se anche per ipotesi (perché per ora è un’ipotesi) GG penalizzasse i siti oscurati nelle serp non farà di tutta l’erba un fascio (speriamo), anche se chiaramente più si è stati border line più si è a rischio.

    Penso che più si è lavorato con ‘naturalezza’, per l’utente e per migliorare il web più si può star tranquilli.

    Piuttosto mi viene in mente il fronte opposto: quelle enormi directory e fabbriche ‘umane’ di contenuti che noi tutti conosciamo e che sappiamo non portare grande utilità all’utente… anche se, ahimè, l’utente ci mette un po’ a scoprirlo.

    Che fine faranno quei siti? Perderanno posizioni nelle serp, com’è giusto che sia, a favore di chi ha fatto un lavoro QUALITATIVAMENTE migliore?

  • curioso di vedere che succede…
    Io di siti che fanno traduzioni copia&incolla, nell’ambito in cui scrivo, ne conosco parecchi, e in genere escono anche piuttosto bene…
    Sono piuttosto scettico.

  • Mah… forse allora ho una directory di qualità perchè io non ho visto alcun cambiamento. Ed è una delle directory più in vista in Google, con alcuni milioni di pagine viste al mese… sono sempre scettico a questi annunci “pubblicitari” da parte di Google. Può anche darsi che l’elevata “anzianità” mi metta comunque al riparo da queste cose (sono ormai 11 anni). Ripeto: nessun cambiamento sostanziale…

  • @superseo non hai visto cambiamenti perché Panda non è ancora arrivo in Google.it

  • Ok, Gianluca… allora vi farò sapere. Ma dubito che siti molto anziani (come il mio) subiscano rivoluzioni nelle serp…

  • @superseo Probabilmente no; e non tanto perché “anziano”, ma perché con gli anni avrà acquistato nel suo profilo links backlinks da siti autorevoli e con trust.
    Comunque, in linea generale, più che i direttori – che probabilmente saranno penalizzati solo se si Google incomincia realmente ad applicare sconti sul PR se obbligano allo scambio link obbligatorio (contrario alle sue direttive) – i siti che più saranno colpiti sono:
    1) siti di article marketing, come è successo con eZine negli USA
    2) blogs che non solo non offrono contenuti di qualità, ma anche li generano attraverso scraping
    3) siti leggeri, ovvero quelli che hanno contenuti poco rilevanti (testi iperottimizzati, eccessiva presenza di pubblicità, scarsa o nulla presenza di immagini, scarsa o nulla presenza di elementi dal valore aggiunto, come potrebbero essere i video).

  • Più che altro per quanto riguarda la penalizzazione di contenuti duplicati vorrei capire come fà a trovare l’originale, per escluderlo dalla penalizzazione!

  • @simoneforti
    Di metodi ne esistono abbastanza. Per esempio, nel caso di un blog wordpress, l’ora del ping a Google. O l’ora di cache da parte di Googlebot. Se il post originale è stato (re)twittato, sicuramente lo sarà stato prima delle copie.
    E poi esistono metodi più complessi.

    Comunque ti invito di copiare il primo paragrafo di questo post e usarlo come criterio di ricerca in Google e capirai immediatamente come è possibile individuare siti scrapers o farmer:

    1) siti aggregatori di rss feeds (scrapers sites), come Il Bloggatore, Karameloo e Linkback.it (per citare solo pochi) sono al limite della futura penalizzazione, soprattutto gli ultimi due a causa dell’intrusiva presenza di Adsense;

    2) siti farm veri e propri come webmarketing-ecommerce.net, che presenta tutte le caratteristiche che il Panda Update riconosce come proprie di un farmer.

  • Sono anni ormai che aspetto la penalizzazione dei siti aggregratori… ogni volta se ne parla ma sono sempre lì. Io non ne ho mai usato io, non capisco quale utilità abbiano per l’utente… mah.

  • Sono un pò titubante su questa faccenda, perché i contenuti di bassa qualità possono essere soggettivi. Lo dico perché per esempio ho dei siti che fanno molto traffico e propongono dei contenuti che la maggior parte delle persone definirebbero di bassa qualità, ma vengono ricercati, usufruiti ed utilizzati dagli utenti.

    Internet ormai è diventato un mezzo di massa, e non sempre la massa cerca un contenuto di qualità. Molti cazzeggiano e cercando contenuti superficiali su Internet per condividerli e scambiarli con gli amici.

    Lo so che magari non si parla di questo tipo di contenuto, ma di content farm, ecc, ecc… però ho questa titubanza…

  • @Marco: in realtà si parla proprio di quel genere di contenuto, non di content farm. Questo aggiornamento è stato fatto per colpire anch’esse, ma non hanno lavorato un anno per colpire solo quelle, altrimenti ci avrebbero dato giù di penalizzazioni manuali.

    E’ un discorso molto più ampio e nei forum americani c’è ampia discussione. C’è chi dice che semplicemente vanno a colpire anche solo quei siti i cui contenuti occupano poca rilevanza nella pagina. Ovvero: hai un sito con una grafica ingombrante? Devi fare testi ancora più ingombranti, non ci si accontenta più di 200 paroline buttate giù.

    La user experience diventa ancora + fondamentale: entri in un sito, e poi torni indietro col browser perché non hai trovato ciò che cercavi? Bhè, è un voto negativo che Google considera…

    E’ un discorso molto ampio, e me ne aspetto davvero delle belle su Google.it.

  • Io sono curiosa di vedere questi update e vi spiego perché
    La copia integrale dei contenuti ormai è andata in soffitta, io però mi accorgo ogni giorno di blog che non creano contenuti originali ma originali puzzle copiando qui e lì.
    Cambiano cioè solo una parola ogni x caratteri, quel tanto che basta perché google non li reputi duplicati ma che di fatto sono plagi di altri testi, inframmezzati con alcune frasi prese da diverse fonti per costruire un unicum che non ha quella spontaneità tipica di chi scrive un articolo partendo da una pagina bianca, ma che ha fornito quelle informazioni utili con quel plus, un commento, qualcosa di proprio, come fai tu su questo blog. Ma quelli di cui parlo io sono facili da scoprire perché seguono passo passo lo schema e il testo di un altro articolo modificando quel tanto che basta per non incappare nel filtro duplicati.
    Quindi un articolo ottenuto assemblando pezzi da articoli di qualità, per google è della stessa qualità, minore o maggiore?

  • Forse ho scritto male prima. Quando ho detto ” ma che ha fornito quelle informazioni utili con quel plus, un commento, qualcosa di proprio, come fai tu su questo blog” mi riferivo agli autori originali. I plagiatori non mettono mai commenti o impressioni proprie, scrivono per stare sulle serp non per scambiare opinioni 😉

  • @recenso Quello che tu descrivi è una classica tecnica di black hat chiamata snipping.
    Esistono “ottimi” plugin di WordPress per realizzarlo.
    Un ottimo post che spiega come funzionano (ma che, occhio!, non dice di utilizzarlo, solo di conoscere come funziona) è questo di Rishi Lakani, uno dei SEO britannici attualmente migliori: http://explicitly.me/content-spinning-aka-article-spinning

    Come potrai vedere alcuni sono particolarmente semplici, mentre altri sono particolarmente complessi.

    Come tutte le tecniche, nacque con un proposito non necessariamente black hat… diciamo grey hat (ovvero al limite ma non contrario alle linee guida di Google): infatti, potrebbe essere legittimamente utilizzato da un SEO per creare differenti versioni di un proprio contenuto, in modo tale da evitare di sottoporre ai vari siti di article marketing una serie di duplicati e, quindi, di poter approfittare al massimo le possibilità di link building attraverso quella tattica di content marketing.

    Un saluto

  • @Gianluca
    Premesso che non mi interessa utilizzarlo perché a me farebbe proprio schifo insozzare il mio blog con cose create da altri, è una questione di narcisismo. Comunque, appunto, come dici tu serve per differenziare i propri contenuti, i propri, invece questi qui lo fanno coi contenuti altrui, compresi i miei.
    E non so se usano un plugin di wordpress, forse, perché nel giro di una notte ne scriverebbe 7-8 di articoli così.
    Ma potrebbero anche farlo a mano visto che in alcuni punti si vedono i tagli fatti per spostare le parole.
    Questi secondo me vanno su google suggest e vedono quali parole sono ricercate, eseguono la query, vedono chi sta nelle prime posizioni, il mio blog lo si trova, e fanno un puzzle di cose che non hanno scritto loro, anche se come puzzle non è bruttarello, ma si capisce che è scritto tanto per fare.

    Esempio:Io scrivo per conto mio
    “La serie tv della abc, finalmente arriva in chiaro dal 23 aprile, vi raccomando di guardarla perché è stata girata nella splendida location della polonia, non vedo l’ora che arrivi”
    e poche ore dopo trovo un articolo
    “La serie tv della rete abc arriva in chiaro il 23 aprile, è stata girata nella bella location della polonia”

    e via così per tutto l’articolo. E’ un esempio fatto male, ma siamo lì.
    Poi aggiungono trama da wikipedia e altri siti di tv, comunicati stampa e google news, e incollano sempre col metodo sopra.
    Alla fine ottengono un post.
    Con questo metodo possono scrivere di qualunque cosa pur senza conoscere l’argomento e partendo da articoli che stanno nelle prime posizioni di google sanno che sono fatti bene.
    Non so come faccia questo plugin ma ormai seguendo diversi feed e conoscendo un po’ di seo me ne accorgo quando un articolo ha qualcosa di “strano”. Anch’io quando pubblicizzo negli aggregatori o nei siti di ma cambio qualcosa, ma creo testi nuovi da zero.

    Perciò mi chiedo: quello che fanno questi disgraziati è black hat o grey alla fine? E il panda sarà in grado di distinguere i contenuti di qualità scritti da un umano o reputerà di qualità superiore quelli usciti da questo snipping?
    Me lo chiedo perché già cogli aggregatori che linkavano il mio blog, google preferiva penalizzare me, quindi non mi fido più della capacità di google di riconoscere la qualità. Per me la qualità non è questo snipping

  • A proposito Gianluca, grazie per l’articolo, ti confermo che questi qui usano proprio questa tecnica per creare i loro “contenuti”. Ma google per determinare la qualità di un post non potrebbe considerare un algoritmo che isoli le keyword utili di un post, il numero di parole che le separano, la sequenza delle stesse (uno spinning mi sembra che rispetti la stessa sequenza e gruppo di keyword del post originale)? Forse google deve evolvere il concetto di contenuto duplicato e non limitarlo solo all’enigmatico “blocchi significativi di testo”.Ciao 🙂

  • Ciao Taglia, grazie per il post.
    E’ da un pò che non mi documento. Sapevo dell’arrivo dell’update, ma non mi era ancora chiarissimo.

    Pensavo anche di non dovermene preoccupare in quanto non ho siti di article (o almeno non ne ho a libero accesso), non uso neanche CS e AM per fare la link building dei miei siti.

    Quindi mi credevo abbastanza fuori dall’update. Invece potrei rientrarci, visto che spesso uso contenuti di bassa qualità su vari network interni.

    Finora il Panda non mi ha colpito più di tanto e pare che l’update sia cominciato anche sul .it
    Vedo oscillazioni leggerissime in molti dei risultati storici che ho ottenuto negli anni.

    Il post e i commenti mi hanno chiarito un paio di aspetti che mi erano sfuggiti. Ovvero che qui si sta parlando di qualità e iperottimizzazione, non di article marketing.
    Per ora aspetterò qualche settimana e poi se noto cali interverrò. Questo perché gli interventi necessari potrebbero essere più pericolosi che non intervenire affatto, visto che io non ho contenuti duplicati, ma ho:

    – Siti con molte pagine su parole chiave simili
    – Siti con testi brevi (1/3 di word)
    – Siti con titoli straottimizzati contenenti solo la parola chiave
    – Siti che hanno anche una vasta presenza di adsense

    A mio vantaggio i settori di mio interesse sono “servizi di società” quindi spesso l’utente è soddisfatto di ciò che trova, visto che è un pò il mio obiettivo la conversione.

    Per ora non mi preoccupo e anzi spero ancora che questo update penalizzi più i miei competitors che me :p

  • Il Panda è arrivato e a fatto parecchio, ma parecchio male…
    Ho siti di aggregazione di notizie di vari argomenti (utili per chi vuole avere maggiori informazioni possibili) tutti con links back e ci sono dentro come pochi.
    Adsende è crollato del 90%…

  • Ho letto “le informazioni che non sono utili” ed un brivido mi ha attraversato la schiena, l’orrore stava travalicando la mia capacità di razionalizzare.

    Ma stabilisci tu Google cosa sia utile? un ente al di sopra di tutto e tutti un genio del culturame mondiale?.

    Il punto è un’altro chi ha il monopolio si può permettere uscite che fanno a pugni con la democrazia nella rete.

    Io ho un sito che si può ben definire una content farm e stavo per chiuderlo definitivamente e scopro che negli ultimi tempi si mantiene stabile con segnali pure di crescita sconcertante, adesso come la mettiamo?.

    Dovrebbe spazzarlo via Google no?. E allora perché cresce e soprattutto con post che sono duplicati e rimandano al contenuto originale?.

  • @Callistus:
    Ma ti rendi conto o no che qui si sta parlando di un update che è arrivato finora solo in alcuni paesi stranieri e che non ha interessato ancora l’Italia?

    La tua content farm o è italiana e quindi non è stata ancora toccata o semplicemente è un’anomalia.

    Inoltre io mi stupisco sempre di più quando qualcuno critica una Multinazionale accusandola di essere poco comunista.

    🙂

    Piuttosto fai ragionamenti diversi, chiediti:
    – che interesse ha google nel distruggere determinati siti?
    – che effetti avrà questa mossa sull’economia globale?
    – che effetti avrà questo update nella lotta tra i motori di ricerca? Da una parte c’è Google che punisce i siti dei Webmaster “cattivi” e dall’altra c’è Bing che fa il giovane e si unisce a Facebook per farsi amare dagli utenti.

    Io eviterei di parlare di democrazia in rete. La democrazia in rete è libertà di espressione e quella non ti manca. Anzi ne hai fin troppa.
    Il fatto che ci sia un monopolio è evidente, ma ricordati anche che sono gli utenti a dare importanza a Google se gli utenti decidessero che Google li ha delusi, potrebbero in ogni momento abbandonarlo, passando ad altri motori di ricerca.

    Io non sono ancora stato deluso da Google, credo che stia facendo degli errori e credo che stia facendo i propri interessi, ma è ancora il miglior motore di ricerca al mondo..ed è suo pieno diritto decidere quali sono “le informazioni che non sono utili”.

  • Taglia, dovresti fare come AlVerde, implementare un forum al blog 😉

  • Ragazzi ma siti come Angolotesti, o motori di ricerca come Trovit o wickedin, o ancora siti di annunci stile backeca o siti che contengono software?

    Qui mi sembra siano tutti siti che hanno contenuti presenti anche altrove, ma, soprattutto nel caso dei motori e annunci, volutamente inseriti in più siti..come si comporta il Panda in questo senso?

  • Non mi sembra che si parli di filtro contro la duplicazione di contenuti, che già penso che esista. In questi casi, si c’è del contenuto duplicato, ma a questo punto, per l’esempio di angolotesti, se andiamo sul mercato americano, dovrebbe esistere solo un sito di testi ? e chi lo sceglierebbe Google ? da quello che mi risulta sul panda assassino si parla di altre cose, cioè di aggregatori, cioè di coloro che sfruttano i contenuti originali di altri

  • Si è vero, ma nel caso dei motori di ricerca verticali come trovit o twenga…i contenuti sono sempre duplicati…anche se solo in parte…e infondo anche angolotesti ha testi che sono presenti da altre parti…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy