Content Farm: facciamo il punto

Matt Cutts è passato dalle parole ai fatti e l’algoritmo atto a colpire le content farm, annunciato il 21 gennaio scorso, è stato attivato qualche giorno fa.

Secondo Cutts, “le query sono variate in una percentuale leggermente superiore al 2%, ma le variazioni evidenti riguardano meno di mezzo punto percentuale. L’effetto finale è che gli utenti avranno una maggior possibilità di vedere siti con contenuto originale piuttosto che siti che copiano o “estraggono” i contenuti dai siti originali.”

Contenuti e Content Farm

Esistono 2 grosse tipologie di contenuti che vengono spesso nominate sia da Matt Cutts che nelle linee guida di Google (e in quelle di tutti gli altri motori di ricerca): il contenuto originale e il contenuto di qualità.

Dal contenuto originale discende direttamente il discorso dei contenuti duplicati e di quelli copiati da altri siti o generati automaticamente. Su questo genere di contenuti Google ha scritto delle indicazioni molto chiare, ed è sicuramente il campo nel quale il motore si trova maggiormente a suo agio: algoritmicamente, infatti, è piuttosto facile per Google scovare del contenuto duplicato (totalmente e parzialmente); un po’ meno penalizzare i “copioni” (Google, come ben sappiamo, può decidere di posizionare più in alto la pagina copiata rispetto a quella originale, se il sito che contiene i contenuti copiati ha più anzianità/trust/link di quello originale). Ma lasciamo per un attimo stare questo discorso e passiamo a quello, più interessante, dei contenuti di qualità.

La “qualità”, ci dice il dizionario, è la “proprietà caratteristica di una cosa, che ne determina la natura e la distingue dalle altre”. Leggendo questa definizione pensavo ad un certo punto di aver cercato per sbaglio “originalità”, quasi che i 2 termini fossero sinomini. Cosa distingue quindi un contenuto “originale” da uno “di qualità”? sempre il solito dizionario mi dice che la qualità è una “caratteristica positiva”.

Molto bene, ma come fa allora un motore di ricerca a misurare questa “caratteristica positiva”? Come fa Google a determinare un contenuto di buona qualità, rispetto ad uno di scarsa qualità? Come fa Google a penalizzare chi produce contenuti di scarsa qualità (ovvero le content farm)?

Siccome un algoritmo non credo possa capire se un pezzo di Montanelli contiene più “qualità” di quello di un alunno delle elementari, Google utilizza cose come l’anzianità del sito, la quantità di contenuti a tema pubblicati nello stesso sito, il mantenimento del tema nel corso del tempo, il numero di link in ingresso e tutta una serie di altri parametri che permettono al motore di capire in quale posizione della SERP infilare la pagina.

Ma l’utilizzo di queste tecniche, benché riesca ad assegnare un “punteggio” all’interno di una classifica, non risolve il quesito della qualità di un contenuto.

Io credo che la qualità, soprattutto se di un testo scritto, sia qualcosa di estremamente “umano” e soggettivo. Intendo dire che solo un essere umano può riuscire a leggere un articolo, capirne la qualità, e darne una valutazione, un voto.

Google equipara questo voto ad un link, Facebook ad un like, Twitter ad un RT: tutti parametri estremamente “non umani”, e soprattutto estremamente taroccabili (non penso di scandalizzare nessuno se dico che da tempo è fiorente sul web la compra-vendita di link, like e retweet).

Insomma, Google non è in grado di determinare se un contenuto prodotto da una content farm è di qualità o meno. Se un freelance, scarso e sottopagato quanto vuoi, scrive un articolo per Demand Media, Associated Content o SEED.COM, in Google dovrebbe esserci qualcuno che legge “umanamente” quel contenuto, per poi dargli “soggettivamente” un voto.

Si, umano e soggettivo: perché alla fine Novella 2000 vende più copie di tanti quotidiani, e I Can Has Cheezburger? fa almeno 100.000 utenti unici al giorno.

Cos’è dunque un contenuto di qualità?

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

12 Comments

  • Ottimi spunti di riflessione; mi sono sempre chiesto cosa intendesse Cutts per “qualità”…

  • … Praticamente un motore di ricerca che valuti le aggregazioni di persone attorno ai contenuti di qualità, filtrati e senza rumore di fondo … un indice di indici generati spontaneamente da persone riunite in gruppi moderati o meno … 🙂

  • Io credo che il termine qualità andrebbe riservato solo ai contenuti da premiare, e io li individuo in quelli che in economia vengono chiamati beni pubblici.

    Beni per i quali le forze del libero mercato non riescono a dare giusto riconoscimento a chi li produce e chi li consuma, per le esternalità positive che generano.

    E quindi per questi beni vengono in soccorso l’intervento pubblico, i premi, le riconoscenze ecc.

    La sanità, la cultura, la difesa nazionale, la ricerca, una riserva naturale …. ecc. sono tutti beni pubblici.

    Credo che in questa categoria rientrino almeno in parte pure vari contenuti web.

    Ma Google è una impresa, non un ente pubblico, è come mediaset (e purtroppo anche la rai), che è guidata principalmente dall’auditel.

    Se l’auditel dice che “uomini e donne” è più seguito di “atlantide”, è quello che crea reddito, non la cultura/ignoranza che generano.

    Il contenuto di qualità secondo Google, salvo suoi slanci di generosità (quindi antieconomici), quindi non potrà che essere solo un contenuto che piace a molti.

  • >> I Can Has Cheezburger? fa almeno 100.000 utenti unici al giorno.

    Exactly! Smettiamola di giocare e mettiamoci a lavorare seriamente con quello che “spacca” veramente : i gattini e il porno!

    L’ideale sarebbe un sito che coniuga le due cose, ovvero gattini E porno tutto assieme, ma devo ancora affinare bene l’idea…

  • L’importante è che iniziano a penalizzare quei siti che copiano contenuto “tal quale”…poi arriveranno anche a parametrizzare la qualità anche se essendo soggettivo, l’uomo non sarà mai superabile in una situazione del genere.
    Dmoz, nell’era degli algoritmi, sopravvive ancora, anzi si fa di tutto per farmi indicizzare il prima possibile!

  • Il riconoscimento della qualità non è automatizzabile da un algoritmo, è come dire sostituire un operaio con un robot (se sono azioni identiche e ripetute).
    Sono anni che vedo siti imbarazzanti per contenuti, architettura delle informazioni e grafica ma Google li tiene sempre in alto, nelle SERP.
    Credo che i parametri più importanti siano la keyword nell’URL, l’anzianità del sito ed i link in ingresso; tutti verificabili con un algoritmo. Tuttavia per combattere questi siti occorre lavorare, duramente, con la SEO.
    é la SEO che dà fastidio a Google perchè cambia i parametri con cui gli algoritmi valutano i siti, è manipolazione. Dà fastidio che qualcuno cambi la valutazione in modo soggettivo, umano…

  • Bravo taglia, 2 bei punti di analisi lasciati in sospeso.
    Dubito che una macchina o qualche algoritmo possano veramente definire a medio e breve termine quali sono i contenuti di qualità rispetto ad altri.
    Non è solo un problema formale di originalità.
    Scrivere un po di testi formalmente originali, con tanti link e ben sistemati per la parte seo, quindi adatti per google, non è detto che siano contenuti di qualità.
    Anche le signorine che parlano da uomini e donne, alla fine dicono (dal punto di vista dell’algoritmo) cose originali. Sulla qualità…magari..passiamo oltre.

  • Secondo me invece la qualità può essere valutata, anche se solo a grandi linee e con un margine di errore, algoritmicamente: quanto tempo un utente che proviene da una SERP passa sul sito? Ci ritorna? Ci ritorna direttamente senza passare dai motori di ricerca? Aumentano i commenti? La pagina viene aggiornata (con commenti o con nuovo contenuto)?
    Secondo me da questi dati, che Google sappiamo avere a disposizione, un’idea piuttosto chiara riesce a farsela.

  • Ecco mi ha preceduto Bobo…anche io volevo sottolineare che un altro parametro da tenere in considerazione è l’analisi di Analytics e tutto quello che ne comporta…. 😛

  • Alla fine tutti i discorsi sulla qualità dei mass media riportano a un ruolo “pedagogico” del medium, quello di tenere gli utenti lontani da contenuti che potrebbero “traviarli”.
    Rispetto ai medium tradizionali (la retrocessione del “ruolo pedagogico” è evidentissima nel passaggio da TV pubblica a TV commerciale), il motore di ricerca introduce un elemento di novità: 1) non è un comitato editoriale ma l’utente che “spinge in alto” un risultato; 2) ci sono parecchi furbi che scalano al di fuori di questa logica.
    Per uscire da questa impasse, pur con questi elementi di novità, è difficile non passare per un approccio pedagogico. Ed è impossibile affidare quel ruolo a un algoritmo.
    Ergo o Google secca la SEO in toto, lasciando che perlomeno sia l’utente a sceglie se mangiare “his dogfood”, o crepa per le estreme conseguenze della stessa rivoluzione che ha introdotto.
    La validazione social dei risultati potrebbe aver senso, ma lì Google gioca fuori casa…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy