Google Panda e i sottodomini

HubPages è stato uno dei siti colpiti più duramente dal Google Panda: catalogato da molti come content farm, si calcola che abbia perso circa l’85% del traffico dall’entrata in vigore del Panda Update.

Da qualche settimana, però, pare che HubPages abbia trovato il modo di sfuggire dall'”abbraccio mortale” del Panda.

Paul Edmondson, founder e CEO di HubPages, in una recente intervista sul WSJ ha parlato proprio di come il sito è uscito dal “death grip” del Panda Update, utilizzando i sottodomini.

La scoperta della soluzione è stata casuale: dopo aver rivisto tutti gli standard editoriali e aver messo in atto svariate modifiche, Edmondson si è accordo che Google aveva indicizzato e posizionato meglio, per le stesse query, alcuni contenuti inclusi sotto l’URL ww.hubpages.com rispetto a quelli di hubpages.com.

A Maggio Edmondson ha esposto a Google i fatti, chiedendo se poteva procedere a dividere il suo sito in tanti sottodomini, in pratica un sottodominio e un mini-sito separato per ogni autore dei contenuti: nel mese di Giugno pare che lo stesso Matt Cutts abbia detto ad Edmondson di tentare quella soluzione (oltre ad altre cose).

I test iniziati a fine Giugno hanno mostrato risultati molto positivi: alcuni contenuti di HubPages che avevano perso il 50% di traffico dopo il Panda Update sono tornati ai livelli pre-Panda nelle prime 3 settimane dall’attivazione dei sottodomini, mentre altri autori han visto un significativo recupero del traffico web. Edmondson ha quindi deciso di procedere con l’attivazione dei singoli sottodomini per ogni autore di HubPages a partire da questa settimana.

Come fa notare Chris Crum di WebProNews fu lo stesso Matt Cutts, nel lontano 2007, a suggerire di utilizzare i sottodomini per separare contenuti molto differenti fra loro, come fa Google con news.google.com o maps.google.com (per esempio). Ma è anche vero che un portavoce di Google, interpellato poche ore fa sulla questione da Search Engine Land, ha sottolineato che i webmaster non devono aspettarsi che la semplice aggiunta di un sottodominio possa dare una spinta al ranking del loro sito web.

Google potrebbe anche utilizzare il recente rel=”author”, “figlio” del rel=”me” – sempre che venga implementato nei sottodomini di HubPages – per identificare gli autori dei contenuti migliori e quindi “premiarli” nelle SERP. Allo stesso modo, gli autori che producono contenuti di scarsa qualità potrebbero essere facilmente individuati e penalizzati dal motore di ricerca.

Queste soluzioni non sono certo applicabili a tutti i siti colpiti dal Panda, ma per chi gestisce una content farm o un “paid to write” qualche spiraglio, forse, si apre.

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

13 Comments

  • Interessante! Purtroppo devo uscire un pò dal contesto… Google Panda è già arrivato in Italia? Alcuni dicono di si altri di no. Sono un pò confuso 🙂

  • Come sempre, con il tempo, si trovano le scappatoie più o meno efficaci. Siamo ancora ben lontani dall’avere un motore di ricerca realmente meritocratico.

  • Ma allora Panda preferisce domini monotematici ? Anche se si tratta di contenuti presenti in altri domini? O si tratta solo di un problema di quantità?

  • Salvino, non credo che sia questione di siti monotematici, ma piuttosto credo che riguardi il fatto che il trust aumenta nel momento in cui l’argomento è unico.

  • Molto interessante ma queste strade tortuose alle quali ti obbliga Google diventano sempre più insopportabili. Temo che proprio seguendo le “direttive tecniche” di Google, la qualità di serp e siti web in generale cali sempre di più. Google sta perdendo sempre più terreno (in termini di qualità delle serp) e se non si sveglia, nemmeno con Google+ (il clone di FB) riuscirà a migliorare le cose. Siamo lontani anni luce dai tempi gloriosi del PageRank.

    Domanda retorica: se HubPages è una content farm… aggiungere sottodomini migliorerà la qualità dei suoi contenuti?

  • Stavo giusto pensando ma Hubpages ha contenuti di qualità?? A me più che una content farm sembra una spam farm vera e propria e google cosa fa? Aiuta in prima persona e riposizionare un sito di spazzatura? Addirittura Matt Cazz si sbilancia con dei suggerimenti?! Scusate ma qualcosa non mi torna…. E noi poveri webmaster ignorati dal grande G che facciamo?! A certo a noi tocca tornare in fabbrica a lavorare….

  • secondo me dipende semplicemente dal fatto che la penalizzazione Panda non si applica in toto al main domain ma ogni sottodominio ha storia e reputazione categorizzate a parte.

  • Robin Good ha affermato che il Panda colpisce site-wide…d’altra parte se fosse così metterebbe in ginocchio gli hosting gratuiti e i siti che permettono di aprire spazi personali (blogs e altro) tramite sottodomini.

  • C’è ancora tantissima confusione!
    Sicuramente lo spunto importante di questo post è che la tematizzazione è una delle caratteristiche fondamentali che giudica google per stabilire il trust rank.

    Dividere in sottodomini un sito pieno di contenuti di bassa qualità non risolverà comunque il problema.

    Secondo me Google Panda non è perfetto ma sta andando nella direzione giusta, quella di premiare i siti con contenuti di qualità.

    Ora starà imparando anche dagli errori che commette, ma nel tempo (meno di un anno) sarà in grado di fornire risultati più equi!

    Neanche in google sono contentissimi dei primi risultati, infatti non è presente in tutto il mondo!

  • Come si evolve il Seo.
    Negli ultimi tempi diverse cose stanno cambiando. Il mondo del Seo è diventato troppo tecnico e schematico, e i siti web sono diventati contenitori sterili, riempiti di parole chiave, termini, immagini ottimizzate ad hoc, con utilizzo massiccio di Link e pubblicità.
    L’uso intensivo di tecniche Seo ha inevitabilmente reso i contenuti più scarsi, troppo attenti alla densità delle parole, piuttosto che al loro significato, o alla loro importanza nel contesto. È un po’ come se ad un poeta o ad uno scrittore si dovesse dire: “scrivi una poesia o un racconto, ma non utilizzare la parola x o la parola y, e se utilizzi la parola z, cerca di intercalarla nel testo con uniformità, e non utilizzarla più di un certo numero di volte, cerca di utilizzarla con una densità del 20% rispetto al testo intero. Ah, dimenticavo, le parole più rilevanti cerca di utilizzarle nella parte iniziale del testo, nel centro e alla fine….”
    Capite bene che in questo modo l’arte dello scrittore viene inevitabilmente ingabbiata e limitata, e difficilmente questo tipo di approccio avrebbe dato luce ai capolavori che tanti artisti del passato hanno regalato alla storia.
    Quindi, tornando a noi, questo approccio orientato alla massiccia ottimizzazione Seo ha impoverito i siti web del loro contenuto più importante: l’originalità e la naturalezza.
    Sembra che Google se ne sia accorto prima degli altri, introducendo nuovi parametri di valutazione per il posizionamento dei siti nei risultati di ricerca, e se questo ha portato ad una drammatica, per alcuni versi, discesa del traffico su tantissimi siti web, ha anche iniziato ad interrompere la tendenza a considerare l’uso intensivo del Seo come unica fonte di visibilità e successo.
    Con gli ultimi aggiornamenti degli algoritmi di valutazione di Google, tantissimi webmaster hanno visto calare nervosamente gli accessi ai loro siti, e se questo ha creato inizialmente panico e smarrimento negli operatori del settore, ha anche aperto la strada del prossimo futuro: tornare a valorizzare i contenuti, scrivere cose interessanti, che abbiano alto gradimento di pubblico, o almeno di una parte.
    Il Bot, da algoritmo calcolatore di variabili e percentuali, si sta evolvendo, avvicinandosi al nostro modo di percepire e di analizzare le informazioni presenti sul web. Il Seo quindi dovrà evolversi di conseguenza, e da freddo applicatore di procedure di ottimizzazione dei contenuti, dovrà trasformarsi in una specie di “filosofo del web”, cercando di capire cosa veramente il cliente cerca e come il cliente percepisce e assimila i contenuti proposti.
    Il Seo dovrà mettersi nei panni di chi cerca e di chi probabilmente leggerà certe informazioni, piuttosto che mettersi nei panni di googlebot o di altri spider, e questo non potrà che rendere il nostro lavoro più interessante, più creativo e più “umanistico”, meno tecnico e quindi molto, molto più interessante.
    C’è poco da fare, che piaccia o no, Google è sempre un passo avanti a tutti, e lo ha dimostrato ancora una volta, cambiando forse troppo drasticamente, ma inevitabilmente, il modo di leggere e di valutare i contenuti sul web.
    Forse possiamo dire che sta nascendo l’era del web 3.0, che sarà un ulteriore passo avanti verso il passato, perché la semplicità, la naturalezza e l’originalità fanno parte del genere umano, da sempre.
    Maurizio Galli (Seo e Webmaster)

  • ragazzi vi sono troppi siti al mondo..e troppe poche serp (10 che contano). è ovvio che google corra ai ripari.

  • Concordo con Maurizio Galli: la paranoica rincorsa delle tecniche seo ha spostato da troppo tempo l’attenzione sulle tecniche esasperate e i contenuti sono rimasti nel dimenticatoio.

    Non dobbiamo dimenticare invece che il web è fatto dagli uomini per gli uomini. Troppo spesso leggo contenuti ottimizzati da Seo che probabilmente hanno avuto problemi con la lingua italiana fin dalla più tenera età.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy