Google dichiara guerra alle Content Farm!

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Venerdì scorso Matt Cutts ha pubblicato un post che fa il punto sull’eterna lotta fra Google e lo spam, tema caldissimo in questi ultimi giorni.

La parte dell’articolo su cui voglio focalizzare l’attenzione è quella in cui si parla dei contenuti; Cutts fa infatti 2 dichiarazioni estremamente interessanti per chi si occupa di editoria online.

La fine degli aggregatori

“Stiamo valutando diverse modifiche che dovrebbero portare lo spam a livelli ancora più bassi, tra cui una modifica che colpisce soprattutto i siti che copiano altri contenuti e i siti con basso livello di contenuti originali. Continueremo a esplorare nuove vie per ridurre lo spam, tra cui nuove modalità per gli utenti per fornire un feedback più esplicito circa i siti spammosi e di bassa qualità.”

In questa dichiarazione ho letto la fine di molti aggregatori di contenuti. Anche se non è direttamente specificato, credo che la frase “i siti che copiano altri contenuti e i siti con basso livello di contenuti originali” non lasci spazio a dubbi, identificando in modo molto netto un certo tipo di “succhiatori di feed”. Già nel 2008 avevo puntato il dito verso questo genere di aggregatori, ed evidentemente non mi stavo sbagliando…

La fine delle content farm

“Se è vero che lo “spam puro” è diminuito nel corso del tempo, l’attenzione si è ora spostata sulle “content farm”, che sono siti con contenuti superficiali o di bassa qualità. Nel 2010, abbiamo lanciato 2 importanti modifiche algoritmiche focalizzate ai siti di bassa qualità. Tuttavia, sentiamo venire dal web un feedback forte e chiaro: le persone chiedono azioni ancora più forti nei confronti delle content farm e dei siti che contengono principalmente contenuti spammosi o di bassa qualità.”

Qui la faccenda si fa spessa, e parecchio. Basti pensare, ad esempio, che molti contenuti che girano sul network di AOL sono prodotti da SEED.COM, piattaforma considerata una content farm. E considera anche che Yahoo! ha comprato Associated Content alcuni mesi fa, spendendo 100 milioni di dollari: Associated Content può contare su circa 380.000 “contributor”, che nel tempo han prodotto più di 2 milioni di contenuti su oltre 60.000 temi diversi. A cappello di tutto mettiamo la notizia dell’IPO di Demand Media, attesa fra qualche giorno: l’azienda può vantare oltre 105 milioni di utenti unici al mese e più di 679 milioni di pageview, numeri prodotti da oltre 13.000 freelance.

Se davvero Google cancellerà questo genere di pagine dai suoi archivi, ci sarà da un lato un probabile tracollo economico di certe realtà (anche se, seppure parzialmente, continueranno a fare traffico semplicemente comprandolo e fare soldi con tecniche d’arbitraggio), e dall’altro un profondo rimescolamento nelle SERP, dal quale emergeranno, finalmente, i contenuti di valore.

A inizio anno consigliavo di investire un sacco di tempo nella creazione di contenuti originali e di grande qualità. Che sia davvero arrivato il nostro momento?

Wordlift
2dc13395536c431966c0b7bc5282437b
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.
×
2dc13395536c431966c0b7bc5282437b
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

38 Comments

  • Scusate se arrivo tardi sull’argomento.
    Mi pare di capire che la guerra sia già iniziata: facendo una ricerca di articoli di cavoloverde.it per frasi intere, nella serp compaiono i post originali ma di wikio e liquida nessuna traccia, almeno nelle prime tre pagine.
    Ciao
    Luca

    Reply
  • Un paio di ragioni per le quali un aggregatore potrebbe essere utile:

    1. per la diffusione rapida di una notizia, uno scoop o altro…
    2. per avere sott’occhio la panoramica “completa” di quello che succede in un determinato settore

    il mio aggregatore opera in tutta onestà, chiedendo al sito fonte l’autorizzazione di pubblicarne i feed, prima di procedere.

    molti si sono addirittura stupiti della richiesta, e ne sono rimasti entusiasti, dato che lo scopo dell’rss è proprio quello di diffondere… tutti hanno dato il consenso, nessuno escluso.

    D’altro canto pensateci un attimo, se qualcuno si interessa di poker, avrà piacere di avere sotto un unico link il quadro completo delle notizie del giorno, da approfondire all’occorrenza. I siti fonte poi sono contenti che il loro contenuto sia divulgato e leggibile.

    Bannare gli aggregatori mi sembra un po’ come frenare l’impeto positivo che ha il web sul mondo dell’informazione.

    Reply
  • “Se faccio informazione pura, cronaca ecc… come faccio a dare un valore aggiunto? ” Google non è ancora arrivato ad un algoritmo così raffinato da indicare come copia chi parafrasizza. Tant’è che molti furbetti si stanno proprio specializzando nel copiare interi articoli con le loro parole.

    L’informazione di cui parli te, comunque è un’interpretazione della realtà da parte dei giornalisti. Se fossi come dici te, sarebbe denigrante per la figura stessa dei report. Non pensi?

    Reply
  • Google dichiara di “voler premiare contenuti originali che diano un valore aggiunto ed un approfondimento”.
    Mi spiegate una cosa? Se faccio informazione pura, cronaca ecc… come faccio a dare un valore aggiunto? Ad esempio, per una rapina una volta messi i dati sensibili come luogo, soldi rubati, eventuali nomi degli arrestati, ecc.. che contenuto approfondito do? Me lo invento?
    Siamo alla follia
    PS Se questa cosa fosse vera, allora tutte le agenzie di stampa, che danno testi striminziti e spesso ripresi tali e quali da tutti i giornali più importanti italiani, sarebbero finite

    Reply
  • Ciao Tagliaerbe,
    sarà colpa del solo 2% ma io vedo tutti in alto i siti più spammosi. Ci sono alcuni che fanno tecniche spammose usate nei primi anni 2000 in settori molto competitivi, che hanno avuto addirittura un aumento di visite. Mah!

    Reply
  • Beh non possiamo negare che ormai il numero di aggregatori sia esagerato.
    Addirittura ci sono aggregatori che aggregano altri aggregatori e per arrivare all’articolo originale devi fare un lungo sentiero.

    Reply
  • Vorrei proprio capire come farà Google a capire che i contenuti sono copiati.

    Lancerà gli spider per ogni paragrafo?

    allora in questo caso basterà cambiare soltanto le prime parole di ogni paragrafo e agli spider (che lavorano in automatico) sembrerà non copiato.

    Sarebbe molto meglio se Google predisponesse un forum dove gli stessi blogger potessero lamentarsi di veder copiati i propri post con i relativi link e così tutta questa storia finirebbe.

    Reply
  • @Merlinox: purtroppo conosco bene questi meccanismi di google. Anche a me capitó qualcosa di simile.

    Reply
  • @giuseppe: una volta – a seguito del ban di adsense su un sito che curavo per terzi – mi dissero che i contenuti non erano adatti. Gli rigirai alcuni screenshot di loro banner a tema escort, incontri gay e quant’altro. Sul forum mi risposero (un presunto account loro non ufficiale) che adwords era loro e accettavano quello che volevano.

    Reply
  • Spero per google che abbia imparato a riconoscere i contenuti originali, sennò stiamo messi male noi che ne produciamo di originali 😉

    Reply
  • Ben venga una pulizia, il problema che secondo me google ormai è di parte, google news non é un aggregatore?
    Sará anche vero che molti sono semplicemente content farm ma é anche vero che tanti altri sono ottimi prodotti che non meritano di essere penalizzati. Un anno fà google ha penalizzato un mio sito, un newsreader online, ma google groups è sempre li, esce nelle serp anche con post inviati dal mio newsreader, e qui chi é che usa contenuto duplicato? google groups o il mio sito?
    Peró, meglio eliminare la concorrenza …. (non che volessi fare concorrenza a google news …)

    Il motto di google ( Don’t be evil ) é ancora valido ? 😉

    Reply
  • Vedremo cosa intende per qualità.

    Comunque Google non è forse la stessa azienda che aggrega notizie prelevate da siti altrui per il suo Google News?
    E che rispondeva stizzita di fronte alle richieste di Murduch, della FIEG, ecc.?
    E con il suo motore di ricerca non è forse il più grande copiatore di tutti i tempi?

    Con questo voglio semplicemente dire che a google degli editori, dei webmaster, dei copywriter, dei seo ecc. frega quasi nulla.

    Gli interessano solo degli utenti.

    Se un giorno potrà fare a meno di noi, non ci penserà due volte.

    Quindi, navigare sempre a vista.

    Reply
  • Ciao Tagliaerbe, come al solito non solo sei sempre “sulla notizia” ma fornisci anche contenuti di qualità (mai affermazione fu così attuale:-)
    Sul mio sito ho fatto un’analisi delle dichiarazioni di Google secondo il mio modesto parere. Poichè l’articolo è molto lungo, non potendolo postare (contenuti duplicati 🙂 lascio qui il link
    http://www.fullpress.it/Articoli/Google-colpisce-i-siti-di-contenuti-duplicati-di-scarsa-qualita-e-aggregati-parola-di-Matt-Cutts/12-36947-1.html (sei libero di rimuovere)

    Ciao
    Anna

    Reply
  • bene, speriamo solo che sappia distinguere bene fra chi ha – lavorando – creato i contenuti originali, e chi copia e incolla…
    Non vorrei che alla fine i penalizzati fossero gli articoli originali, perchè è una cosa che ho visto succedere…

    Reply
  • @matteo si scusami quello lo volevo dire, sono d’accordissimo con te e la cosa è giustissima! non sai quanto ti capisco, visto che tutti i giorni faccio una fatica dell’ostia a scrivere contenuti inediti e originali e controllarli che lo siano….

    Reply
  • @Gregorio appunto..vedo che la pensiamo uguale… cmq contenuti inediti e un buon SEO non lo batte nessuno! e mi sembra anche giusto dopo la tanta fatica di scrivere contenuti sempre inediti! 🙂

    Almeno per mia esperienza…vedo che anche se questi “aggregatori di basso livello” ti ciucciano i tuoi feed…ma cmq hai una fonte diciamo buonina! Google ti riconosce la parternità….almeno nel mio caso!

    Mi dispiace per blogger poco esperti che magari si vedono scavalcare dagli aggregatori! :-((

    Reply
  • Beh, alcuni blog e siti non hanno veramente nulla da leggere: solo banner.
    E se questi spariscono è un bene per tutti, tranne loro.
    Anche sugli aggregatori bisogna distinguere, alcuni sono utili e di ottima fattura. Il Blogger Italiani di merlinox ne è un esempio.
    Poi non dimentichiamo che tra 90 giorni ci sarà un altro AD e magari le priorità cambieranno ancora.

    Reply
  • @Matteo Hsia
    Anche quelli che citano la fonte sono da condannare o quantomeno non devono comparire in prima pagina se la percentuale di contenuto originale è pari a zero.

    Reply
  • Magari tutti gli aggregatori no…ma quelli che nascondono la fonte, non chiedono il permesso e mettono la pubblicità…quelli si e tutti! e mi metto nei panni di chi si crea il suo blog e per sua sfortuna non ne sa niente di SEO e per sua sfortuna incombe in questi aggregatori……….

    Reply
  • Quoto Matteo. L’aggregatore come idea non è male, ma il problema è che ce ne sono veramente molti. Centinaia di aggregatori che magari hanno un indicizzazione migliore del blog da cui sono prese le news. C’è anche il fatto che i proprietari degli aggregatori non chiedono il permesso ai webmaster per poter inserire i loro feed nel sistema. Io personalmente mi sono ritrovato in 15 aggregatori senza neanche sapere come e perchè. Speriamo che Google risolva il problema dello spam!

    Reply
  • Sarebbe ora che Google tagliasse le gambe a chi fa soldi sulle spalle altrui. Quante volte mi è capitato di finire in siti con questa struttura:
    – testata
    – 2-3 righe di un articolo esterno
    – link al sito esterno
    E il tutto ricoperto di annunci sopra, sotto, destra, sinistra.

    Siti come questi non possono essere in prima pagina, quando magari le fonti sono relegate molto più indietro.

    Reply
  • Anche io faccio la stessa cosa ma francamente molto di rado mi capita di vedere poi che di fatto Google prenda provvedimenti. Certo è che se solo si limitasse a far scomparire dalla serp i contenuti duplicati sarebbe già un bel passo avanti.

    Reply
  • Non so: penso ci sia una grossa differenza tra quello che fa Liquida, Wikio o altri aggregatori che cercano di aggiungere valore ai feed che ripubblicano rispetto alle centinaia di siti che copiano indiscriminatamente e totalmente un feed rss avendo cura però di rimuovere i link originali sostituendoli con i propri.

    Google mi sembra che indicizzi ancora un sacco di questa spazzatura, e penso che prima di lanciarsi alla caccia dei contenuti di bassa qualità (buona fortuna) potrebbe cominciare a spazzare via dalle serp tutti quei siti che non aggiungono valore.

    Io riporto lo spam (contenuti interamente duplicati) quando lo vedo nelle prime pagine di Google, ma non ho mai capito se a queste segnalazioni segua esattamente qualcosa…

    Reply
  • Ben venga se l’iniziativa è finalizzata a ridurre i contenuti duplicati. Spiace dirlo, ma è una tecnica molto usata da diversi aggregatori per trarre in inganno l’utente medio che spesso si ritrova a cliccare senza volerlo sui banner adsense ben mimetizzati da etichette fuorvianti.

    Che poi questo lasci spazio ad altri tipi di riflessioni non c’è alcun dubbio: Big G considererà il suo Google news alla stregua degli altri aggregatori, oppure rimarrà il solo servizio del genere?

    Nella seconda ipotesi rischierebbe di essere messa nuovamente sotto inchiesta dall’Antitrust? Di certo le realtà che hanno basato il proprio business sugli aggregatori avrebbero motivo di lamentarsi.

    Certo è che ancora nel 2011 ci sono un sacco di blog che copiano letteralmente i contenuti da altre fonti senza alcun problema e spesso senza incorrere in nessuna sanzione da parte di Google.

    Sarebbe già un bel passo avanti se si inibissero dai motori questi blog.

    Un conto è prendere spunto da un articolo letto (come spesso facciamo un po tutti), un altro conto è ripubblicare per intero o in parte sul proprio blog un articolo scritto da altri, magari con qualche piccola modifica, un altro conto ancora è aggregare contenuti.

    In ogni caso sono favorevole a qualsiasi iniziativa che porti a dare maggior visibilità ai contenuti più originali e di valore. Sempre che i concorrenti di Google non facciano il gioco opposto per cercare di guadagnare posizioni di mercato.

    Reply
  • Quoto Enrico, però sul fatto che google vada a tagliare le gambe a gruppi come liquida wikio e quasi metterei anche current, mi sembra dura.

    Reply
  • Io credo che il web sia esageratamente pieno di contenuti duplicati e di scarsissima qualità, un ammasso di immondizia che non e’ di alcun interesse per gli utenti e che intasa la serp. Non demonizzerei gli aggregatori in generale, alcuni sono ben fatti e forniscono visibilità ai blog iscritti, catalogandoli in aree tematiche secondo logiche che premiano anche la qualità. Ovvio che se google deciderà veramente di penalizzare i feed aggregator, per liquida e simili non ci sara’ futuro…

    Reply
  • Non capisco l’accanimento nei confronti degli aggregatori. Come tutti i servizi online ci sono quelli con senso e quelli senza senso. Io vi porto l’esempio del mio Ricette 2.0: sono oltre 350 food blogger, selezionati uno a uno all’interno dei quali si possono cercare contenuti certi. Io lo valuto come plus.
    Inoltre a livello di contenuti – per ora rimosso – il feed consente agli appassionati di tracciare ogni giorno ricette ricette e ancora ricette: questo vi pare male? E’ chiaro che se confondiamo AGGREGATORE con FEED POSTING stiamo parlando di due cose diverse!

    ps: sinceramente mi stupisco che ancora ci sia gente che si firma con una keyword sperando di fare SEO.

    Reply
  • cosi google potra creare il proprio aggregatore e sara in totale monopolio !!!

    Reply
  • Speriamo che l’algoritmo di Google funzioni bene e non faccia piazza pulita di quei post che non sono uguali, ma vagamente si somigliano.

    Reply
  • (Dimenticavo di specificare che Cutts e altri googler hanno risposto proprio in quel thread.)

    Reply
  • Utopia.

    Liquida continua ad avere traffico a discapito dei tanti piccoli blog che regalano il loro feed pensando che questo gigante possa portare loro dei vantaggi.

    Non per voler male al mio compatriota Merlinox ma io spero che gli aggregatori facciano la fine del topo.

    Tuttavia ci sono siti che copiando non hanno problemi in quanto fanno fede ad una base di link solida, magari formatasi tanti anni fa quando il web era diverso da ora.

    Secondo me le content farm avranno un successo sempre maggiore e questo è dovuto al semplice fatto che al sig. google interessano di più i contenuti freschi che non i contenuti di qualità.

    Un blog viene valutato molto di più se posta tanti articoli al giorno. La qualità incide solo sulla long tail ma al giorno d’oggi sono in pochi a potersi permettere la long tail.

    Reply
  • La mia esperienza con Blogger Italiani 2.0 e Ricette 2.0 è la prova vivente del massacro: a prescindere dall’utilità di servizi di un aggregatore / motore verticale piuttosto che un sito che fa feed posting. Vabbè che dire: il pensiero leggendo il tuo articolo (Jinx mi aveva segnalato il video di Matt) mi porta direttamente a pensare al nanoblogging italiano.
    Non conosco la situazione estera ma sono fermamente convinto che 2-3€ ad articolo significhi contenuti di bassa qualità.

    Se Google dovesse (algoritmicamente parlando la vedo come utopica questa cosa) riuscire a filtrare i veri contenuti di qualità, la blogosfera italiana potrebbe svuotarsi.

    Dai lo sappiamo tutti che una larga % dei blogger sono traduzioni dei siti oltreoceano: beccati i feed originali si prevedono gli articoli. E lo dico perchè io stesso faccio e ho fatto attività simili.

    Reply
  • bhe, a pensare che in italia esistono siti che duplicano tramite RSS pure in google news. =)

    Del resto staremo a vedere, google è sempre stato neutrale per lo spam, sempre visto pagine nel index tranquillamente duplicate e con un numero maggiore di backlink’s pure piu’ alte nella SERP delle originali.

    seoline

    Reply
  • Sinceramente non ho capito perché lo facciano soltanto adesso , gli aggregatori sono sempre stati inutili dal mio punto di vista ,e soprattutto fuori dall’etica del web

    Reply

Rispondi

Max Valle
Max Valle

Da oltre 20 anni, fornisco consulenze per aziendee professionisti, che vogliono sviluppare il loro business, aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Iscriviti alla Newsletter
Main sponsor
logo kleecks

Sponsor

Google dichiara guerra alle Content Farm!
Scroll to Top

Vuoi capire perchè il tuo sito non traffica?

REPORT SEO a soli 47€

anzichè 197€+iva
Giorni
Ore
Minuti
Secondi