L’uomo batte la macchina?

Qual’è il miglior modo di trovare ottime risorse sul web? Tramite i motori di ricerca basati su algoritmi come Google, tramite motori decisionali basati sulle persone, o tramite la combinazione di entrambe le cose?

Questo è l’eterno dilemma dai tempi in cui la directory di Yahoo!, gestita e organizzata da persone, perse la battaglia contro Google e i suoi crawler automatizzati. E ancora oggi, in alcuni ambiti, il pendolo continua ad oscillare: “Google non funziona” – dicono alcuni – “i sistemi basati sulle persone sono la miglior soluzione”.

Qual’è il problema di Google? lo spam, dicono i critici. O meglio, un nuovo genere di spam. Le cosiddette content farm sono nate per produrre migliaia di articoli al giorno, con titoli che corrispondono ai termini di ricerca più popolari – dai però un’occhiata a quel genere di contenuti, e lo troverai tutt’altro che utile.

Questa Google-fatigue ha iniziato ad emergere già a Dicembre 2009, quando Paul Kedrosky osservò che l’utilizzo di Google per cercare una nuova lavastoviglie portava solo a risultati spammosi.

Kedrosky chiama la cosa “info-krill”: “Identifica alcune parole che compaiono in una ricerca redditizia – dagli elettrodomestici alle lezioni di kayak – produci regolarmente contenuti a bassissimo costo su quei termini, e il gioco è fatto”.

E’ un concetto che è stato rivisitato in quest’ultimo periodo da un noto blogger britannico (Alan Patrick), che ha dichiarato: “Mi ha colpito il livello di spam di Google, tipicamente nella prima pagina dei risultati di ricerca è presente una qualche forma di SEO spam”.

Altri sono giunti alla stessa conclusione. Jeff Atwood, un noto sviluppatore, ha parlato di “problemi in casa Google” mentre l’imprenditore Vivek Wadhwa ha esposto le sue ragioni in “perché abbiamo disperatamente bisogno di un Google nuovo e migliore” (vale a dire “spammer e marketer”). Marco Arment, nel frattempo, ha condannato “la recente esplosione di siti con contenuti a bassissimo costo”, che hanno contribuito “all’apparente sconfitta di Google da parte dello spam”.

Se il problema è chiaro, lo è anche la soluzione? Sembrerebbe di si. Atwood chiede: “Stiamo osservando i primi segnali di un fallimento della ricerca su base algoritmica? La nuova generazione della search è destinata ad essere meno algoritmica e più sociale?”

Anche Kedrosky propone una “soluzione umana”, dichiarando che “la curation è la nuova search”.

Wadhwa, nel frattempo, invita a valutare Blekko, che effettua ricerche all’interno di un set di siti definiti da editor umani.

E Arment propone un approccio combinato: “una soluzione per Google può essere quella di cambiare radicalmente i propri algoritmi e le proprie policy sulla ricerca cercando di deenfatizzare il “phrase-matching” e dando maggior priorità ai link in ingresso e alla credibilità. E, quella che probabilmente sarebbe un’enorme svolta per Google, usare le opinioni delle persone per assegnare un punteggio di qualità ai siti web, e “regolare manualmente” la rilevanza dei domini”.

Anche se sono incline a pensare che i motori decisionali basati sulle persone incrementerebbero la qualità dei contenuti, bisogna tenere presente che il percorso della “curation” è costellato di cadaveri.

Nel Dicembre 2010, sono trapelate notizie circa il fatto che Yahoo! si appresterebbe a chiudere il sito di social bookmarking Delicious. Yahoo! ha chiarito in seguito che l’azienda sta cercando di vendere il servizio, un pioniere nella categorizzazione su larga scala di link inseriti dagli utenti. Il tentativo di Yahoo! non è proprio un fulgido esempio di crescita nel campo della human curation.

Lo scorso anno ha visto la caduta di un altro pioniere del web 2.0, Digg.com, che consente agli utenti di votare i link preferiti e classifica i risultati più popolari. Digg ha visto il suo traffico precipitare a seguito di un restyling, che mirava a tenere il passo con Twitter e Facebook.

Ed è proprio lì dentro che vedremo sbocciare la curation: su Twitter e Facebook, dove gli utenti condividono milioni di link al giorno, senza nemmeno rendersi lontanamente conto di essere dei “curator” del web.

Questi utenti credono solo di condividere ottimi link con gli amici; per coloro che cercano di dare un senso alla crescente complessità del web, questi milioni di “segnali sociali” sono come polvere d’oro.

Le soluzioni arriveranno in molte forme, dall’integrazione di Facebook in Bing fino a quella di Twitter – e Facebook – in “giornali” come Paper.li e The Twitter Tim.es. Alla fine, insomma, troveremo molti modi di combinare il giudizio umano con l’efficienza di un algoritmo.

Liberamente tradotto da Humans vs. automated search: Why people power is cool again, di Pete Cashmore.

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

16 Comments

  • Mi capita sempre più spesso (sopratutto quando faccio ricerchè per l’università) di visitare decine di siti indicizzati da Google che hanno un contenuto non sono inerente ma talvolta “fasullo” e cucito su misura per i GoogleBot..

    Sicuramente sarebbe qualitativamente migliore un motore di ricerca “umano”..

  • Google è basato su un algoritmo e tira fuori alcuni siti spam nelle serp…diciamo che è normale visto che è basato su un algoritmo. L’algoritmo è come la legge…fatta la legge…trovato l’inganno.

    Giudicare un sito con degli spider è limitante ma farlo manualmente può allungare troppo i tempi. Probabilmente l’integrazione dei due aspetti sarà la soluzione del futuro.

  • “Ingannare” un algoritmo, per quanto sia complesso, non è impossibile.
    Cosa veramente impossibile è far fare quel che si vuole a milioni di persone che usano la rete.
    In futuro servirà “influenzarle” con tecniche di persuasione, webmarketing, guerrilla marketing, etc. se si vuole comparire nei risultati di Google.

  • a mio avviso su tante ricerche ci sta che su qualche serp ci possano essere risultati spammosi, ma per esperienza personale cercando su Google ho quasi sempre trovato quello che mi interessava e ho sempre risolto dai problemi più banali a quelli più complessi!

    Penso che un controllo umano allungherebbe troppo i tempi e si possa tornare indietro. Per non parlare dei costi, soggettività e tanto altro….

    Un mix tra le due cose a mio avviso c’è già anche con i quality raters e l’integrazione dei social sta avvenendo piano piano per dare peso alle condivisioni degli utenti su Facebook, un retweet e quantaltro per valutare l’importanza dei vari segnali.

    In alcuni casi potrà vincere lo spam.., ma se si lavora bene e con buoni contenuti + conoscenze seo/sem, la differenza nel lungo periodo si vede….

  • Quoto in toto Matteo Hsia: i risultati di Google sono nel complesso molto buoni, e l’algoritmo viene continuamente aggiornato per tener conto dello spam e dell’evoluzione del Web, degli elementi social e quant’altro.
    Poi ingannare le persone non è certo impossibile, e al limite un controllore lo puoi corrompere, cosa difficile con un computer.
    Chiaro che poi Google non fa beneficenza, e che a loro costa meno accettare un po’ spam che andarlo a cercare col lanternino. Se poi qualcuno riuscirà a far di meglio, ben venga!

  • Si può dire come dici tu. O magari si può dire come stanno le cose: chi fa i contenuti di qualità (e ci si potrebbe discuter) è del tutto incompetente sul come fare contenuti che s’indicizzano bene.

    Creare contenuti online vuol dire conoscere un po’ di SEO (non tanto) o avere qualcuno nel team che ti cambia titolo, sommario e testo per l’indicizzazione.

    Se finisci in terza pagina dovresti chiederti il perché, no?

  • @Syncro System ti ringrazio per essere d’accordo…eheh!

    @valerio Beh diciamo che detta così riduci molto ma molto il lavoro di ottimizzazione seo…dove potremo stare qua a parlare una vita…..eheehh! per creare buoni fonti ci vuole fatica e tanto lavoro…

    Aggiungo alla tua affermazione di chi fa contenuti di qualità che a volte ha anche siti poco ottimizzati o si affida a terzi livelli ad esempio con piattaforma gratuita…. ma ognuno è un discorso a se come per ogni argomento che si va a trattare…

  • “L’algoritmo è come la legge…fatta la legge…trovato l’inganno.”

    E’ proprio così infatti… dopo tanti anni anche Google inizia a mostrare le sue crepe, e Facebook gli sta dando una bella spallata.

    Credo che Google resterà utile ancora per un bel pò, ma presto emergeranno ricerche “sociali” basate sul numero di like degli utenti e di qualche supervisore illuminato.

  • – d’accordo con Matteo Hsia :-), in particolare:

    non trovo tutto questa invasione di SEO spam nelle ricerche che effettuo. E quando lo trovo, è in misura tollerabile. Forse le serp in inglese hanno tassi di spam diversi. Non so. Non cerco lavatrici in inglese.

    Lo spam lo sposti, non lo elimini. Come ogni sistema vitale- e il web lo è, alimentato da persone ad uso e consumo di persone- come ogni sistema vitale, dicevo, anche il web è corruttibile. E i sistemi che lo tengono in piedi (i mdr, ad esempio) possono allontanare la decadenza, non eliminarla.

    Se gli uomini potessero aspirare realmente alla perfezione non esisterebbero i blog. O la cioccolata calda.

  • E Google invece ci tiene molto a far sapere che nelle sue serp non c’è intervento della mano umana. Chissà perchè?
    Si certo, lo spam, almeno un poco, ci sta e sarebbe strano il contrario, senza contare che questo autorizza google a “migliorare” l’algoritmo continuamente. Per G non è mai andata cosi bene, e non cè FB che possa tenere

  • Come considerate i network di blog italiani (blogo, isayblog, oneblog, blogsfere ecc) ? content farm? gran parte dei contenuti è di livello bassissimo, così come le remunerazione dei collaboratori a cui va bene così e poi… me li ritrovo nelle prime posizioni nelle serp.

    Cmq complimenti a Blogo per la più che discreta exit, ma non ne ha parlato quasi nessuno, in particolare mi aspettavo un articolo sul tagliablog 🙂

  • Discorso difficile e lungo: Blogo e Blogosfere sono ormai parte di Populis, che qualcuno identifica come content farm.
    Ma se i contenuti prodotti da questi network di blog sono nelle prime pagine dei motori, significa che c’è stato un buon lavoro di SEO, e/o che han preso buoni link. In ultima analisi, quei siti han fatto del traffico, hanno avuto dei lettori fidelizzati, hanno costruito una community.
    Quindi chi ha il diritto di dire che sono di “livello bassissimo”? non c’è forse anche un mercato per questo genere di contenuti? o addirittura è più grande questo mercato che quello dei contenuti “di qualità”?

  • Dai, per la qualità basta andare a leggerli. Quelli tecnici sono perfino quelli messi meglio. Basta anche notare come i blogger sono spesso studenti delle superiori (se chiedi in giro alcuni ti diranno quanto vengono pagati: 2E a post).
    I link in entrata? ma non provengono dal network stesso? non è per questo che i network sono diventati forti e i singoli o si sono aggregati ad altri o sono scomparsi?
    A me dispiace, perchè il (relativo) successo che hanno avuto è stato più per l’ottimo impegno seo che per la produzione di contenuti.

  • ps: mi sembra di ricordare che hwupgrade è stato tra i tuoi clienti (ma dalla tua risposta mi sembra di aver toccato personalmente qualcun’ altro) ovviamente non mi riferisco a loro che seppur con moltissime pecche sono tra i pochi (neo) blognetwork italiani che si salvano. Neo perchè hanno lanciato solo di recente altri blog/siti, immagino proprio per contrastare l’ offensiva seo dei nuovi concorrenti a basso costo.

  • Erminio:
    1) non puoi operare con un “filtro qualità” su base umana. Non ce la fai. Le content farm sfornano un numero tale di contenuti giornalieri che Google dovrebbe centuplicare il personale per provare a leggere/filtrare solo una piccola parte di questi contenuti.
    2) i link possono essere un po’ comprati e un po’ naturali. Di sicuro, in certe realtà che hai visto posizionarsi bene, ci sono ottimi SEO e ottimi personaggi che san fare link building.
    3) Hardware Upgrade ha una fissa sulla qualità che non puoi nemmeno immaginare. Praticamente tutte le notizie vengono prodotte da giornalisti/pubblicisti (che spesso vanno in giro per il mondo, per fiere ed eventi), c’è un laboratorio interno per fare test, ed è un sito che dal 1997 (=più di 13 anni) sforna decine di contenuti tematizzati ogni giorno; inoltre ha un forum con oltre 400.000 utenti registrati e quasi 2 milioni di discussioni aperte. Una roba del genere ha, giustamente, agli occhi di Google, un peso enorme.

  • Intanto l’AD di Google fa un passo indietro e lascia il suo posto ad uno dei fondatori.
    Quindi cambierà ancora qualcosa

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy