Google Panda (Farmer) Update, spiegato da Singhal e Cutts

Alcuni giorni fa Google ha annunciato un aggiornamento del suo motore di ricerca atto a colpire i siti con contenuti di bassa qualità (denominati “content farm”), che si posizionavano però meglio dei siti con contenuti qualitativamente superiori. Questo update ha interessato quasi il 12% dei risultati del motore, e sul web si continua a parlare delle implicazioni apportate da tale modifica, che hanno portato da un lato a perdite drammatiche per alcune aziende (come Mahalo e Suite 101), e dall’altro a crescite di alcuni siti conosciuti per i loro contenuti di alta qualità.

Wired ha posto alcune domande a Amit Singhal e Matt Cutts sul “Panda Update” (questo è il nome dato da Google all’aggiornamento); eccole qui di seguito.

W.: Qual’è il nome in codice di questo update? Danny Sullivan di Search Engine Land lo ha chiamato “Farmer”, perché pare che il suo obiettivo sia quello di colpire le content farm.

A.S.: Internamente lo abbiamo chiamato col nome di un ingegnere, che si chiama Panda. Quindi internamente lo chiamiamo “big Panda”. E’ uno dei nostri ragazzi chiave. Qualche mese fa, ha trovato la soluzione per rendere possibile questo update.

W.: Qual’è lo scopo?

A.S.: A fine 2009 abbiamo fatto Caffeine. Il nostro indice era cresciuto molto velocemente, e avevamo bisogno di un sistema di crawling molto più rapido. A cose fatte ci siamo trovati un sacco di nuovi contenuti freschi, anche se alcuni non erano così buoni. In pratica il problema si era spostato dai “farfugliamenti”, che il nostro spam team è in grado di individuare piuttosto bene, a un qualcosa di simile alla prosa scritta, con contenuto superficiale.

M.C.: Abbiamo posto ai nostri gruppi di lavoro questa domanda: “Qual’è il “contenuto limite” oltre il quale inizia lo spam?”. Una volta che ci siamo trovati d’accordo, abbiamo cercato di capire come affrontare il problema.

W.: Come fate a riconoscere un sito con contenuti superficiali? Potete dare una definizione di contenuti di bassa qualità?

A.S.: Questo è un problema molto, molto difficile che cerchiamo di risolvere, e siamo in una continua evoluzione per cercare di farlo. Abbiamo voluto mantenere un approccio rigorosamente scientifico, e quindi abbiamo usato il sistema di valutazione standard che abbiamo sviluppato, dove in pratica inviamo i documenti a dei tester esterni. A queste persone abbiamo posto domande del tipo: “Ti fideresti a dare il tuo numero di tua carta di credito a questo sito? Ti fideresti a dare le medicine prescritte da questo sito ai tuoi figli?”

M.C.: Un ingegnere ha preparato un set di domande molto rigorose, del tipo “Consideri autorevole questo sito? Sarebbe OK se questo sito fosse una rivista? Questo sito ha un numero eccessivo di annunci pubblicitari?” e così via.

A.S.: Sulla base di questo, abbiamo fondamentalmente definito cosa può essere considerato di bassa qualità. Inoltre abbiamo lanciato il Chrome Site Blocker, ma non abbiamo utilizzato i dati raccolti per questo update. Tuttavia, confrontando tali dati, abbiamo notato un 84% di sovrapposizione, che ci ha fatto capire che siamo nella giusta direzione.

W.: Ma come avete implementato questa cosa algoritmicamente?

M.C.: Penso che l’ingegnere cerca di riportare la sua stessa intuizione e la sua stessa “experience” agli utenti. Ogni volta che guardiamo ai siti che abbiamo bloccato, grazie alla nostra intuizione e alla nostra esperienza, cerchiamo di capire se questa cosa sarà o meno di valore per l’utente. E attualmente l’idea è quella di classificare i siti di alta qualità da una parte, e quelli di bassa qualità dall’altra.

A.S.: Immagina un iperspazio con un sacco di puntini: alcuni rossi, altri verdi, altri mischiati. Il nostro compito è trovare un piano che ci dica che la maggior parte delle cose che stanno da un lato sono rosse, e la maggior parte delle cose che stanno sull’altro lato sono l’opposto del rosso.

W.: Credete che questo update abbia raggiunto il risultato voluto?

M.C.: Direi di sì. Ho ricevuto una email che diceva: “Un paio di mesi fa ero preoccupata che mia figlia avesse la sclerosi multipla pediatrica, e le content farm erano davanti ai siti istituzionali”. Ora mi ha detto: “I siti istituzionali sono tornati sopra. Volevo solo dirti grazie”.

A.S.: Abbiamo davvero ottenuto ciò che volevamo.

M.C.: Il che non vuol dire che non guarderemo ai feedback.

W.: Ho parlato con il gestore di un sito chiamato Suite 101. E’ stato fortemente penalizzato, il traffico sulle sue keyword è sceso del 94%. E lui dice che non è giusto, visto che commissiona e cura i suoi articoli e si basa sull’alta qualità dei contenuti.

M.C.: Oh sì, Suite 101, l’ho conosciuto anni fa.

W.: Allora perché questo ragazzo ha preso una mazzata molto più forte di quella di Demand Media, che ha una reputazione da classico sito che si posiziona bene per contenuti di bassa qualità?

M.C.: Per il caso di Suite 101, mi fido abbastanza di come ha operato l’algoritmo.

A.S.: Non voglio fare i nomi di alcun sito. Tuttavia, il sistema di classificazione che abbiamo creato fa un ottimo lavoro nell’individuare siti di bassa qualità. Siamo più cauti con i siti dove è presente un mix di contenuti diversa qualità, perché la prudenza è importante.

W.: Quindi potreste dire a questo ragazzo: “Ci spiace, ma abbiamo capito cosa è un sito di bassa qualità, e il tuo lo è”?

M.C.: In un certo senso, quando la gente va su Google è esattamente quello che chiede – un giudizio editoriale. E questo è espresso tramite un algoritmo. Quando qualcuno va su Google, l’unico modo per essere neutrali è di mostrare i link a caso, oppure in ordine alfabetico. Il punto cruciale è che dobbiamo avere la possibilità di modificare la classificazione delle cose, per migliorare il motore di ricerca.

W.: Alcuni dicono che dovreste essere trasparenti, per dimostrare che non fate questi algoritmi per agevolare gli inserzionisti.

A.S.: Posso dire categoricamente che non sono i soldi a impattare sulle nostre decisioni.

W.: Ma la gente vuole la prova.

M.C.: Se qualcuno ha una domanda specifica sul motivo, per esempio, per cui un sito è stato bannato, penso che sia giusto, giustificato e giustificabile spiegargli il perché. Ma il nostro più recente algoritmo include dei fattori che non possono essere rivelati. Se fossimo al 100% trasparenti, i “cattivi” potrebbero capire come riportare i loro siti nelle SERP.

A.S.: Qualsiasi algoritmo, se pubblicato, potrebbe essere utilizzato contro chi l’ha fatto.

M.C.: Se c’è un algoritmo che può essere pubblicato senza controindicazioni, non lo abbiamo ancora trovato.

W.: Possiamo parlare dell’articolo del New York Times riguardo a JCPenney, che era posizionato molto bene per certe parole chiave? A seguito dell’articolo, Google ha preso dei provvedimenti. Come mai non ve ne siete accorti prima?

M.C.: In buona sostanza, quell’articolo dice che il nostro team non ha fatto per nulla il suo lavoro. Penso che l’analogia migliore è quella del sistema solare – questo sassolino è la Terra e Plutone è a 8 miglia da qui. Un sacco di gente non si rende conto delle dimensioni del web. Ci sono più di un miliardo di ricerche al giorno, e quell’articolo citava un numero relativamente basso di query.

W.: Ma alcune di quelle query erano piuttosto generiche…

M.C.: Alcune sono generiche, come “dresses” o cose simili, è vero. Questa è una delle poche aree di Google dove siamo disposti ad intervenire manualmente. JCPenney era già stato osservato 2 o 3 volte in passato, e penso che la decisione sia stata del tipo: “Fra 3 o 4 altre osservazioni, prenderemo provvedimenti”.

W.: Quindi se fino ad ora è stata una guerra con armi di piccolo calibro, state per passare all’artiglieria pesante?

M.C.: Pensa alla storia di Google nel 2010: siti come eJustice o Foundem si sono lamentati con l’Europa perché puniti troppo duramente da Google. Quindi siamo in una situazione molto strana dove da un lato ci sono persone che dicono che Google è troppo duro, dall’altro c’è chi dice: “Google, devi adottare misure più energiche”.

W.: Questo sembra un periodo in cui Google è sempre più criticato sul lato della ricerca e dalla qualità.

M.C.: Sono piuttosto pratico delle critiche che riceve Google. Storicamente, ci sono meme che ad ondate dicono: “Google fa schifo”, o “Google è di cattiva qualità”, e io tendo ad ascoltarne 2 o 3. Abbiamo osservato il problema degli aggregatori che a volte sopravanzano i contenuti originali, e abbiamo fatto delle modifiche per risolverlo. Abbiamo sentito lamentele su quelle che vengono chiamate content farm, e ci abbiamo lavorato per mesi e mesi per lanciare un update.

A.S.: La gente si aspetta da noi un buon lavoro, e questo è giusto. La critica è una buona cosa, perché significa che vogliono da noi un lavoro migliore, ed è esattamente quello che facciamo.

M.C.: Siamo fortunati a ricevere tante critiche, perché significa che le persone sono abbastanza preoccupate da dirci cosa vogliono.

UPDATE: per un approfondimento sul Panda Update.

Liberamente tradotto da The ‘Panda’ That Hates Farms: A Q&A With Google’s Top Search Engineers, di Steven Levy.

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

23 Comments

  • Tosti e decisi i ragazzi, soprattutto nel caso del sito Suite101.

    Il che fa notare quanto siamo in mano a Google e quanto ci domina letteralmente. Che sia giusto o no, non lo so. Ci sguazziamo dentro finchè si può, finchè c’è spazio e, soprattutto, finchè Google vuole.

    Poi, per il futuro, chissà.

  • Credo che Google stia facendo il possibile per migliorare i contenuti nei suoi risultati di ricerca, forse lo sta facendo in maniera un pò troppo brusca.
    Questi cambiamenti possono essere drammatici per alcuni siti come Suite101 (il 94% in meno è il giorno e la notte) e dovrebbero essere più graduali.

    A Cifra WM: non lo so se è Google che ha in mano noi o viceversa. Basterebbe che un 20-30% del popolo di internet usasse Bing oppure Yahoo e per Google sarebbero guai. In teoria Google teve tenere alta la qualità delle serp altrimenti nessuno lo userebbe più, d’altronde Google è nato così…da un alogritmo che funzionava meglio di altri. 😉

    Buona giornata a tutti

  • “M.C.: Se qualcuno ha una domanda specifica sul motivo, per esempio, per cui un sito è stato bannato, penso che sia giusto, giustificato e giustificabile spiegargli il perché.”
    Peccato che la risposta a questa domanda ancora non sia prevista da nessuna parte!

  • Come al solito Google non dice molto ma è interessante la parte in cui si fa riferimento alle domande che si pongono per determinare la qualità di un sito e fanno riferimento alla pubblicità.
    I siti che utilizzano un numero eccessivo di inserzioni saranno penalizzati?
    Mi chiedo quali siano gli altri parametri che possono utilizzare a livello di algoritmo per determinare la qualità.

  • Se la pubblicità fosse un parametro di qualità allora i vari siti delle testate giornalistiche andranno a perdere posizioni! Vorrei proprio capire come fanno a distinguere un contenuto di qualità da uno no… forse google farà l’analisi grammaticale delle frasi! Boh e poi a volte la qualità è soggettiva se io cerco una guida per impostare il dns su Plesk ne leggerò più di una prima di trovare quella che realmente mi risolva il problema e google come fa a capire quale è quella giusta?

  • La parte che riguarda Suite101 ammetto che mi ha fatto storcere il naso, il problema secondo me è, ma forse è scontato, rendere oggettiva una cosa soggettiva.

  • Premesso che concordo nell’azione di favorire i siti di qualità ma ho alcuni dubbi :
    Sarei curioso di sapere come un ingegnere di google stabilisce tra un sito di cucina ed un altro qual’è il migliore.
    E sarei curioso di sapere cone un ingegnere dalla california stabilisce quale sito di politica nazionale è migliore come qualità e quindi merita di essere posizionato meglio…..CON UN ALGORITMO??

  • Quello che mi interessa più vedere da questa intervista è che questo mondo sta andando verso una qualità fornita esclusivamente dall’etichetta. Nel senso che è detto espressamente nell’intervista quale qualità vogliono, ad esempio quella istituzionale. Quindi, qualora un esperto nel settore della medicina si mettesse a dare consigli sulla salute perchè può, dato che ha studiato, e riuscisse a scavalcare con il proprio sito tutti quei siti istituzionali sarebbe considerato uno di bassa qualità. Tutto questo perchè non ha l’etichetta che giustifica che lui può, non ha magari un editore, non ha un sito costruito su piramide da quotidiano cartaceo. Ed è così che il web va a perdere quella libertà che lo ha sempre caratterizzato. Se non ho scoperto l’acqua calda, se non ho detto qualche sciocchezza, mi sembra di vedere un mondo che si avvicina sempre più a quello dell’informazione al di fuori del web. Giusto o no? Punti di vista!

  • Nico credo che sia proprio questo il punto, google comanda le serp, io ti faccio vedere i contenuti che voglio se per lui la qualità sta nell’etichetta è quello che ti farà vedere… forse facendo così darà vita ad un altro motore di ricerca! Lui ha rivoluzionato le sue serp in base alla popolarità di un sito web ora qualcun’altro rivoluzionerà le sue serp con risultati oggettivamente migliori e non basati su un sistema di etichette! Secondo me è google che ci perderà con questo aggiornamento!

  • Quoto in pieno Nico.
    Fa pensare questa situazione perchè la rete è sempre stata, parlo dal punto di vista personale, il mezzo di informazione per eccellenza perchè era “oltre” gli schemi comuni; era l’Informazione più pura.

    E pensavo che, chiunque, avendone le capacità, era in grado di fornire informazione di qualità e quindi di essere premiato da Google.

    @Luca
    Perchè mai il popolo di internet dovrebbe passare a Bing o Yahoo?
    Sono decisamente inferiori a Google su tutto, ormai. Ed è proprio questo che sottolineo: Google si è così tanto migliorato e ingrandito da aver compreso tutti i servizi utili per tutte le persone che navigano. Per quanto mi riguarda è l’Unico motore di ricerca che uso e che, tra l’altro, ho mai usato in vita mia.

    Comprende tutto o quasi. Gli altri lo guardano da lontano col binocolo a quanto ne so.

  • Un’analisi davvero azzeccata e, per certi versi, spietata.

    Mi sembra curioso che Cutts ammetta di utilizzare iperpiani di separazione per capire chi è buono e chi è cattivo e poi dica di non divulgare i segreti dei loro algoritmi… ha detto già tanto, per chi ne sa qualcosa!

    Comunque è solo un’osservazione la mia: avendo lavorato sugli iperpiani di separazione durante gli ultimi anni di università posso dire che mi sorprende davvero che siano utilizzati da Google, data la loro altissima difficoltà implementativa e dato che non sempre forniscono buoni risultati. In effetti tali tecniche sono MOLTO euristiche e si basano su un preventivo “addestramento” del software: se gli arrivano esclusivamente buoni esempi ok, altrimenti…

  • AHAHAHAHahh

    Mi piacerebbe che domani in Italia qualche polito avesse la stessa brillante idea di goole: DECIDIAMO NOI COSA E’ BUONO E COSA NO!!
    ahahahh
    Le notizie “buone” sempre in prima pagina dovunque e comunue, le notize NON buone in ultima pagina scritte piccole piccole….
    Sareste ancora cosi accondiscendenti?

    LA BARZELLETTA DEL SECOLO:

    “M.C.: In un certo senso, quando la gente va su Google è esattamente quello che chiede – un giudizio editoriale. ”
    Un giudizio editoriale? ahahahahahah
    La gente va su google per cercare un sito. punto.
    E google chi è per dare giudizi editoriali? DIO? il custode delle verità assolute?

    Da giorni pongo una domanda a cui NESSUNO mi ha risposto:
    Nella voce “contentfarm” sono incluse landing page e/ paginette di domini parcheggiati???

    TUTTO TACE…

    Un’ altra domandina: i siti che ABBONDANO DI PUBBLICITA’ TARGATA GOOGLE hanno un buon giudizio editoriale da parte di panda?????????

    scommettiamo che la risposta è si 🙂

  • Carina l’immagine di Google Panda. L’avevo fatta con photoshop (10 secondi, niente di che). Deduco quindi di averti fra i miei lettori.

  • Credo di averla trovata in Google Images… comunque, se e quando riesco, ti leggo 😉

  • “Un’ altra domandina: i siti che ABBONDANO DI PUBBLICITA’ TARGATA GOOGLE hanno un buon giudizio editoriale da parte di panda?????????”
    In realtà proprio no. E’ questo il punto su cui molti sbagliano. Se Google ha messo in atto questo aggiornamento, è anche perché ci son siti zeppi di adsense che portano agli inserzionisti molti utenti poco redditizi.

    Tra coloro che hanno subìto un crollo, c’è proprio chi inseriva massicciamente Google Adsense. In altre parole, leggendo su forum americani, chi aveva molto adsense ma pochi contenuti, è il primo che Google ha colpito, notando una strana relazione in questo.

    Personalmente me ne aspetto delle belle su Google Italia, ed io sto già correndo ai ripari riducendo i contenuti magri (ingrassandoli) e rendendo Adsense meno ingombrante. Chi pensa che Google colpirà solo i siti di article marketing e comunicati stampa fa un grosso errore, e chi legge i forum americana lo sa bene…

  • interessante, mi era sfuggita.

    ps: qual è senza apostrofo

  • Come ho detto sono molto curiosa di veder questo panda in azione. I tizi che fanno spinning e di cui mi lamentavo in altro post hanno il sito pieno zeppo di pubblicità, decine e decine di link in ogni pagina e blocchi di ad sparsi nei post, link di affiliazione dappertutto.
    E se google non li dovesse bloccare mi farò le risate

  • Panda è già arrivato su MasterNewMedia, che ha moltissimi contenuti in Inglese e l’effetto è stato devastante. Sono 4 settimane che lavoriamo ad analizzare i dati e a fare cambiamenti che risolvano la situazione. Fra qualche giorno avrò un report completo su cosa è successo esattamente, cosa abbiamo scoperto e cosa abbiamo fatto per metterlo a posto.

    Per restare aggiornati su quello che giudico il cambiamento algoritmico più importante di Google degli ultimi anni, segui questo newsradar: http://www.scoop.it/t/google-farmer-panda-update

  • google ha solo mascherato una penalizzazione di siti che gli fanno concorrenza nelle vendite, quindi qualsiasi sito che ha le caratteristiche dei siti mirati, puo anche chiudere i battenti. Non si trova piu una min…ia su sto motore di ricerca. Ecco, ora google andrà davanti alla corte per abuso di potere dominante e se ne andrà a fan… una volta per tutte. Per il momento comprate su google shopping…

  • a dimenticavo. A tutti i webmaster: se siete stati penalizzati non cedete alla tentazione di fare una campagna google adword, fareste solo il loro gioco.
    Ciao a tutti

  • Cioè questi dicono l’esatto opposto di quello che google panda sta facendo. Caro google dopo l’ultimo aggiornamento i risultati delle ricerche sono al quanto ridicole e spero presto che te ne vai a quel paese. Siamo stanchi di sottostare alle tue regole..(che non conosciamo). Spero che l’Antitrast ti punisca. Ciao Ciao

  • Io credo che Google con questo update possa avvicinarsi all’obiettivo di premiare siti con contenuti di qualità e fornire quindi risultati di ricerca utili e che rispondono in maniera esaustiva alle queries.

    Ho lavorato in settori molto competitivi per cui fare link building era molto complicato e forse “poco naturale”, i miei competitors sono stati più volte black hats ma da old style quale sono ho sempre creduto che contenuti di buona qualità, originali, informativi ed utili portassero buoni risultati e di conseguenza la condivisione (che sino a qualche tempo fa per me erano principalmente i backlinks) oltre che la certezza di non potere essere bannata.
    Adesso credo che il peso che adesso si comincia a dare ai social networks secondo me è cruciale.
    Di fatto nessuno vuole condividere sul proprio fb un articolo o un link che di scarso interesse o poco utile. é come se non si volesse “sporcare” il proprio wall, piace ricevere a propria volta gli I like it e i commenti, si vogliono pubblicare links che piacciono anche agli amici.
    Lo sharing di articoli mi pare avvicinarsi a quella naturalità di cui tanto si parla, sino al giorno in cui non arriverà qualcuno che pagherà anche questi tipi di condivisione!
    Credo anche neanche i backlinks possono perdere importanza.
    Da blogger scrivo articoli di mio pugno, unici ed originali e se parlo di un servizio o di qualcosa che ho trovato utile sono felice di linkare.
    Google non può che valutare un sito con un algoritmo ma se questo riesce ad interpretare i gusti della gente allora credo che si sia avvicinato all’obiettivo.
    Credo che se si è sempre lavorato seriamente, pensando alla qualità degli articoli, aggiornando il sito, facendo del sano e genuino link building non si debba temere nessun google update.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy