I contenuti dipenderanno dalle ricerche sui motori

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

La qualità dei contenuti sul web tenderà a peggiorare col tempo? Probabilmente sì. O comunque tenderà ad appiattirsi.

Perché? perché i motori non sono in grado di comprendere la qualità dei contenuti, non attribuiscono a questa il giusto valore, e pian piano si sta scivolando verso un’era nella quale l’algoritmo vuole sostituirsi all’editore.

Ma procediamo con ordine.

“Yahoo! to Acquire Associated Content”

Il 18 Maggio Yahoo! annuncia l’acquisizione di Associated Content, per un cifra fra i 90 e 100 milioni di dollari.

Associated Content è una macchina per produrre news: conta circa 380.000 editori freelance, che nel corso del tempo han prodotto più di 2 milioni di contenuti su oltre 60.000 temi diversi. E fa dei discreti numeri, anche per chi guarda la cosa solo lato adv:

I numeri di Associated Content

Google e Demand Media

Passiamo all’altro motorone, Google: qualcuno dice che Big G abbia messo gli occhi su Demand Media, azienda che pare in aria di IPO per 1,5 miliardi di dollari (curioso notare che la stessa società fu nel mirino di Yahoo! un paio d’anni fa).

Demand Media ha un modello simile a quello di Associated Content, ovvero quello di (far) produrre contenuti “a mitraglia” in base ai trend di ricerca sui motori. In altre parole, croudsourcing a manetta on demand in base ai temi “di moda”.

Google, probabilmente, non acquisirà Demand Media, ma potrebbe sfruttare una tecnologia che ha brevettato di recente, e che consente proprio di individuare “il contenuto inadeguato” sul web, basandosi sul confronto fra ciò che la gente cerca e quello che trova.

Prova Seozoom

Se e come utilizzerà il brevetto, non è dato saperlo.

“Welcome to the era of the algorithm as editor”

Quelle qui sopra sono le prime parole di un pezzo del New York Times di qualche giorno fa.

Non credo che lo scenario sia così tragico, ma provo a fare la peggiore delle ipotesi:

1. Yahoo! possiede Associated Content.
2. Magari domani Google si compra Demand Media.
3. I due principali motori di ricerca, conoscono perfettamente (e in tempo reale) le parole chiave più cercate dagli utenti (basta guardare Google Trends, oppure Google Insights for Search).
4. Google e Yahoo!, con le loro “controllate” Associated Content e Demand Media, iniziano a produrre contenuti strettamente legati alle query più popolari.
5. Nei 2 motori di ricerca, le SERP più trafficate sono monopolizzate dai contenuti prodotti… da loro stessi.
6. Risultato? gli editori web spariranno, o comunque si dovranno accontentare delle briciole. O delle super-nicchie con un pubblico numericamente ridicolo.

2dc13395536c431966c0b7bc5282437b
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.
×
2dc13395536c431966c0b7bc5282437b
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

21 Comments

  • Internet è un mezzo di comunicazione. come la tv: fa più ascolti un reality qualunque od un programma di impegnato (almeno per chi lo realizza) approfondimento sullo spreco di denaro pubblico?

    ‘Se tutto il mondo è paese’ internet anche, idem i motori di ricerca.

    Se (esempio…) un sito di gossip pruriginoso [che non necessariamente ha a che vedere con la qualità dei suoi contenuti… (!!!)] fa un sacco di visite, sarà ben posizionato, quindi ‘ben considerato’ dai mdr rispetto a siti che cercano di fare della ‘famigerata’ qualità il loro punto di forza.

    Reply
  • Roberto guarda che questo già succede da sempre. Molte delle notizie pubblicate sui giornali, viste in tv nei notiziari e lette sulle testate online non sono altro che contenuti pubblicitari a pagamento fatti passare per notizie.

    Reply
  • be’ lo scenario non è poi così improbabile: i contenuti non peggiorano, semplicemente li forniscono i motori stessi in base alle mode e ricerche del momento tramite le società apposite che li scrivono (quelle citate nell’articolo), per cui magari la qualità dei contenuti rimane, ma con un monopolio dei motori stessi e una lotta più dura per far saltare i propri contenuti

    può essere uno scenario ancora lungo da venire, ma quello che farebbe preoccupare di più è che fornendo le informazioni i motori stessi il passo verso il controllo dell’informazione è breve: i motori ti fanno trovare quelli che cerchi ma fornendoti la loro versione della notizia. E se qualcuno paga il motore per fornire quell’informazione? Molto pericoloso e molto vicino a propaganda controllata e censura…

    Reply
  • Praticamente spambot molto evoluti, anche io anni fa ne elaborai uno con centinaia di schemi sintattici e dizionari, che sulla base dei domini nelle serp autogeneravano tonnellate di contenuti semanticamente correlati.
    La cosa ebbe anche il suo effetto, prima pagina per “agenzia viaggi” in una settimana, ma poi probabilmente ho esagerato, e dopo circa 500 mila pagine indicizzate in meno di un mese il sito fu bannato per sempre…

    Comunque non credo molto in questo futuro…

    Reply
  • osky
    beh sull’ultimo punto piacerebbe anche a me non fare più seo e che venissero premiati i contenuti con qualche nuovo “algoritmo” come dici tu, ma cosi si tocca il discorso di un’intelligenza artificiale che è un discorso assai laborioso e che in diversi ci provano e ci stanno provando…

    Per il momento penso che chi ha da dire come dici tu cose interessanti se sa fare anche seo, direi che è un mix perfetto….

    e chi ha esperienza nella SEO non usa trucchetti per cui preoccuparsi, ma crea contenuti di qualita ottimizzati, aiutando l’utente in quello che cerca, anche perchè Google in qualche modo riesce a premiare tramite i tempi di rimanenza e altri fattori per capire la bontà di un sito…

    Reply
  • beh è vero che si guarda ai termini più cercati prima di creare un nuovo contenuto, per cui il rischio c’è, ma è anche vero che si sta modificando il modo di cercare.

    ne scrivesti tu in questo articolo: https://blog.tagliaerbe.com/2010/07/lunghezza-query-ctr.html

    pertanto è sempre un moto perpetuo sul quale è difficile fare previsioni: quando si tenta e si prevede che il gioco possa ingripparsi, subito si verifica un mutamento nelle tendenze di ricerca che bypassa il problema e rilancia, è questo il bello.

    ora se le parole con più ricerche qualche tempo fa potevano sembrare quelle più generaliste, adesso l’utente sta andando più nello specifico perchè ha capito come creare query lunghe e che fare ricerche con un vocabolo non è sufficiente per ottenere pertinenza di risultati…

    perciò io penso che il contenuto di chi ha roba da dire non si appiattirà mai sulle statistiche di ricerca, ne terrà conto, ma poi la comunicazione avrà la prevalenza…

    imho…

    forse arriverà il momento in cui ce ne fregheremo di segnalare le keywords e l’attività di seo sarà roba obsoleta, perchè i contenuti saranno talmente tanti che non avrà senso cercare di segnalare una maggiore pertinenza, comunicheremo e basta. e forse google inventerà un nuovo criterio per il suo algoritmo che non prevederà la pertinenza, ma una qualità realmente interpretata… boh… in ogni caso se si è capaci di comunicare, non si ha nulla da temere… è solo chi ha imparato pedissequamente i trucchetti che dovrà preoccuparsi…

    o no?

    Reply
  • Altra ipotesi: facebook aiuterà i piccoli editori e Google perderà altre fette di mercato nei confronti di facebook.

    Reply
  • Quindi “Content is king” non è più valido neanche per Google?

    http://en.wikipedia.org/wiki/Web_content#Content_is_king

    O è un pesce d’aprile fuori tempo massimo, oppure fino ad ora non ho capito nulla!

    Secondo voi Google ci consiglia/obbliga a fare contenuti di qualità e poi è sul punto di invadere le SERP con la spazzatura di una società che sta per acquistare?

    Reply
  • mi sembra una conseguenza logica : se io ti do sia il motore di ricerca che la pagina da leggere avro’ il doppio del guadagno in teoria .
    la domanda che mi interessa di piu’ e’ : quanto tempo impiega google a inserire una pagina non di facebook sui motori di ricerca ?

    Reply
  • Beh, una buona base di verità effettivamente esiste.
    Poi, secondo la legge degli spazi vuoti, ossia che quando si genera uno spazio vuoto, qualcuno tende a colmarlo. Se i 2 giganti si appiattiscono su un basso livello, qualcun altro potrebbe approffittarne. E quindi colmare il vuoto .

    Reply
  • Non mi preoccupo affatto.

    Big G. non ha nessun interesse a seguire Yahoo. Yahoo vive di servizi collaterali ma il suo motore di ricerca vale ben poco. Per la serie loro la cantano e loro l’ascoltano.

    Oltre al fatto che nessun centro media potrebbe soddisfare tutta l’offerta che ogni giorno il web produce.

    Reply
  • Tema molto interessante, anche se con prospettive forse un po troppo grigie come qualcuno ha già detto…

    Invece spero che in futuro i motori di ricerca riescano a riconoscere oltre alla qualità, anche il vero autore della notizia, dove ci sono tante persone che scrivono senza fare un copia e incolla, ma allo stesso tempo sono ancora di più le persone che lo fanno (copia e incolla) avendo la prova tutti i giorni di ricevere articoli scopiazzati e non per fortuna…^_^

    Reply
  • La questione in effetti è complessa, già oggi credo si possa tranquillamente dire che il 90% o giù di lì dei contenuti sul web è roba copiata e ricopiata e copiata nuovamente, tradotta (spesso male) da altre fonti, riassuntini di altri articoli, materiale social, spazzatura vera e propria…
    Poi c’è un bel pò di contenuto di qualità, importante come numeri assoluti (cioè tanto materiale), ma percentulamente molto minoritario rispetto al resto.
    E siccome i motori fanno quel che possono, l’utente comune (che può essere anche una persona molto competente rispetto ai contenuti che cerca, ma poco informatizzato) finisce per prendersi quel che viene…

    Io immagino che almeno in ambiti ben definiti, la situazione sia inevitabilmente destinata a cambiare, con una svolta verso la qualità.
    E siccome produrre contenuti di qualità costa e deve essere economicamente sostenibile, se così non fosse, ci potrebbero essere varie alternative:

    – alcuni grossi network e dei progetti editoriali di medie dimensioni stabiliranno nel tempo una sorta di oligopolio della rete, ossia avranno una visibilità così superiore che potranno riproporre su internet un modello simile a quello esistito sul cartaceo (ipotesi assai probabile, secondo me)

    – i contenuti di qualità rimarranno sul cartaceo, con numeri più piccoli ma economicamente interessanti

    – la società accetterà un progressivo calo del livello culturale e del sapere, “nutrendosi” di contenuti di qualità molto peggiore del passato

    Ovviamente, anche potrebbero succedere anche più cose tutte insieme… Certo è che il modello attuale è una strada senza uscita.

    Reply
  • Secondo me questa non è una politica che interessa a Google.
    Big G, per mantenere il suo predominio ha la necessità di soddisfare gli utenti in rete.
    Sia quelli che cercano sia quelli che pubblicano. Potrebbe essere più conveniente per lui, nel tempo, avere un web più democratico possibile.

    Chissà se è una previsione o una speranza

    Reply
  • quindi in teoria tutti i bloggers come me rimarranno…”disoccupati” o quasi….mmm…speruma da no!

    Reply
  • @Tagliaerbe
    > Nei 2 motori di ricerca, le SERP più trafficate sono
    > monopolizzate dai contenuti prodotti… da loro stessi.

    E che vantaggio ne avrebbero?
    Io credo che ai motori interessi sempre più che le SERP corrispondano ai reali desideri dei navigatori.

    Reply
  • Io vedo un altro scenario possibile: gli editori, i publisher, o chi tenta di vivere scrivendo sul web, si adeguerà di conseguenza.

    Almenochè non inibiranno l’accesso all’utenza a Google Trends e Google Insights for Search, chiunque potrà fare la stessa cosa producendo contenuti in base alle tendenze del momento.

    Che poi in un certo senso è già quello che è sempre successo e ancora succede sul web. Chi sta su internet da un bel pezzo (a prescindere da Trends e Insights ), sa benissimo che gli utenti cercano determinate cose in base al periodo dell’anno, agli eventi di cronaca, all’andamento dell’economia, ecc.

    Dal mio punto di vista qualora si verifichi una delle tue previsioni, ci sarà meno spazio per l’improvvisazione e maggiori opportunità per chi riesce a fare bene.

    Reply
  • Chissà forse a salvarci e a garantire la qualità saranno sempre più i social like di Open Graph 🙂 Vedremo…

    Reply

Rispondi

Max Valle
Max Valle

Da oltre 20 anni, fornisco consulenze per aziendee professionisti, che vogliono sviluppare il loro business, aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Iscriviti alla Newsletter
Main sponsor
logo kleecks

Sponsor

I contenuti dipenderanno dalle ricerche sui motori
Scroll to Top

Vuoi capire perchè il tuo sito non traffica?

REPORT SEO a soli 47€

anzichè 197€+iva
Giorni
Ore
Minuti
Secondi