Chi l’ha detto che The Content is King?

Stavolta ho deciso di fare una pausa dai miei esperimenti culinari, dai corsi di cucina e dalle prove delle mie casseruole e coltelli, per tornare momentaneamente al Web Marketing (seppur non enogastronomico). Se gli allievi della scuola di cucina maisazi.com leggessero questo articolo, non riconoscerebbero il loro cuoco docente, ma vabbè, credo che in realtà per voi lettori di questo blog, io sia più riconoscibile così.

Bando alle ciance e veniamo al sodo. Perché in parecchi casi i contenuti è meglio che siano eliminati o quanto meno non indicizzati? Pensate alla beffa, io sono tra quelli che sempre, tra un forum e l’altro, hanno predicato il The Content is King. Però, questo non è sempre vero.

Per una volta, prima di parlare del perché, vi dirò il come.

Rimuovere i contenuti

Per rimuovere i contenuti, vi sono due possibilità: toglierli veramente dal sito; chiedere che non siano indicizzati, mediante il robots.txt o il meta Robots nella pagina stessa. Una revisione del sito, spesso porta a verificare che certi contenuti più che non indicizzarli, sarebbe proprio meglio toglierli. Via senza pietà i rami secchi, poi vedremo perché. Nel secondo caso, ci teniamo i contenuti perché ci servono per il visitatore, ma tentiamo di evitare che siano indicizzati.

Vi ricordo, che se chiedete che i contenuti non siano indicizzati, val la pena di inserire anche il rel=”nofollow” sui link che vi indirizzano, sulle stesse vostre pagine. Lo spider ringrazierà per vari motivi. Inutile, infatti, farlo correre verso una destinazione e poi chiudergli la porta in faccia, no? 😛

Vediamo ora perché dovremmo far questa cosa che potrebbe far gridare allo scandalo molti ottimi SEO cresciuti persino nella mia stessa scuola di pensiero, quella che i contenuti siano l’unico vero patrimonio di un sito (ma di che contenuti parliamo? )

Aumentare la percentuale di contenuti utili

Ok, la massa è importante e superare una certa soglia critica è fondamentale, ai fini del posizionamento. Però, è facile comprendere come 100 pagine a tema su un totale di 120, siano una cosa ben diversa dall’avere le stesse 100 pagine in mezzo ad altre 500, completamente diverse.

Tagliare i rami secchi, in sostanza, diminuisce i contenuti indicizzati, ma aumenta la percentuale del contenuto utile. In sostanza, migliora complessivamente l’attinenza del sito rispetto al tema che ci interessa.

Ridurre l’inquinamento del tema

A volte, poche pagine fuori tema possono essere una vera calamità rispetto alle tante che abbiamo a tema. Esistono temi caldi, verso cui vi è notevole interesse, che al motore fanno cambiare la fotografia che ha del sito. Avere 100 pagine sui televisori al plasma ed aggiungerne 5 in cui si parla dei problemi che le mamme hanno coi figli che guardano troppa televisione, può mandare in rovina un ottimo progetto di posizionamento, perché per il motore quelle cinque pagine potrebbero essere molto più importanti delle prime cento, in relazione agli interessi dei visitatori.

Non si tratta di semplice diluizione, come ipotizzavo nella situazione precedente, ma di vera e propria infezione o inquinamento.

Mai mischiare temi caldi (quelli sociali, tipicamente) e temi freddi (quelli tecnici, solitamente). Questo è uno dei casi, in cui ridurrei il più possibile l’indicizzazione di una delle due porzioni.

Ottimizzazione dello spazio necessario all’immagazzinamento

Seppur da molti considerato alla stregua di un Dio, ricordiamoci che Google è un insieme di Organizzazione, Dipendenti e macchine. In sostanza, un’azienda. Obbligarlo a tenersi nei database tonnellate di contenuti sempre uguali, gli fa piacere solo nella misura in cui ciò gli porterà utenti che effettuando ricerche visualizzeranno SERP, sulle quali esponendo delle inserzioni pubblicitarie qualcuno farà click. Non fosse per questo, cancellerebbe una montagna di roba.

Ecco, diamogli una mano. Ricordiamoci che l’essere amici del motore, prima o poi pagherà (vantaggiosamente per entrambi). Indichiamogli chiaramente quei contenuti già presenti mille volte nei suoi database, aiutandolo a risparmiare spazio e fatica. Spiegazioni sulla privacy di un sito aziendale (presente in altri milioni di siti)? Pagine con i contatti, di cui è pieno il web? Ricette sulla maionese, che esiste in un miliardo di versioni e che abbiamo messo casualmente su un sito che tratta di cancelleria?

Via senza pietà 😛

Aumentare la facilità di indicizzazione delle pagine buone

Dato che lo spider passa quando vuole lui e dietro il suo capo gli ha detto quanto tempo ha a disposizione, perché ci chiediamo il motivo della sua fatica nell’indicizzare quelle 100 pagine buone che abbiamo in mezzo alle 500 di fuffa?

Aiutiamolo a far più velocemente il suo lavoro, consentendogli di concentrarsi sulle cose che veramente sono interessanti. Via la fuffa e se proprio non possiamo, nofollow-noindex e robots.txt. Facile no?

Ah, ma così mi perdo i visitatori per quei temi non attinenti, ma che magari il mio televisore se lo sarebbero comprato lo stesso…” – sta per dire qualcuno… beh, chi lo fa, si perde il diritto al saluto almeno per il prossimo anno o fino a che non avrà pagato un happy hour milanese a tutta la combriccola SEMS/YoYo/Petro/Colombo/Manto/Morellato/Tradedoubler 😛 (a proposito, Enrico e Daniela, quando organizziamo il prossimo?)

Migliorare il traffico facilitando la Web Analytics

Vi ricordo che gli strumenti di tracking danno i report, ma poi qualcuno deve interpretarli e questo qualcuno è pagato ad ore. Anche quando è dipendente, le ore sono pezzi di stipendio. Obbligare uno a studiare ed interpretare fenomeni in mezzo a decine di migliaia di righe, non ha lo stesso costo che farglielo fare tra centinaia. Inoltre, la stessa cosa la fa ogni mese, quando addirittura non ogni settimana.

Inoltre, avere solo il proprio traffico, consente di stimare meglio il conversion rate e di chiedersi il perché di certe cose. Che senso ha chiedersi come mai i nostri visitatori non comprino il nostro televisore, se tre quarti del traffico è fuori tema? Assurdo 🙂

Su un sito che gestisco, ho ridotto il traffico da 5 mila a 300 visitatori giornalieri, mantenendo inalterato il numero di conversioni giornaliere (anzi, sono leggermente aumentate). Pensate solo al risparmio di banda (oltre alla già citata riduzione delle ore di web analysis e miglioramento della qualità dello studio).

Conclusione

Se vi dicessi che potrei andare avanti ancora con altri esempi, ci credereste? O questo vi basta per essere convinti (se prima non lo foste) della necessità di tagliare i rami secchi?

Francesco de Francesco
Cuoco e docente dei corsi di cucina di
maisazi.com – emozioni in cucina
tel: 349.2207339
email: fradefra@maisazi.com
Facebook: profilo fradefra
MSN: fradefra450@hotmail.com
[…rumore di fradefra che scappa, ridendosela immaginando la faccia di chi si chiede perché un cuoco scriva di Web Marketing ed a che titolo, come probabilmente anni fa faceva l’amico Must, firmandosi SEOlumiere… ]

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

24 Comments

  • Un ottimo consiglio che però si può applicare solo a siti di nicchia. Per i blog generalisti il discorso va a cadere (credo)..

  • Ottimo discorso per chi sa come fare.

    Il sottoscritto manco sa che cavolo è robot.text,

    figuriamoci tutto il resto,

    personalmente tolgo ogni tanto un po’ di post,

    ma sinceramente lo faccio a caso

    —>>>>>>

  • Chi ha un sito di article marketing non sara’ molto contento… 😀
    Una domanda: Secondo te un backlink proveniente da un sito con contenuti misti ma immerso in un testo attinente, quanto perde di valore rispetto a un sito a tema con solo i contenuti che definisci “utili”?

  • @Manu
    E’ lunga da dimostrare, ma forse è proprio per i siti generalisti che sarebbe importante farlo. Se ne può parlare, comunque. Sarebbe probabilmente meglio farlo su un forum, piuttosto che su un post, perché si tratta di una bella e interessante discussione, ma veramente molto lunga.

    @Francesco Martino
    Il robots.txt è un file di testo che metti nella cartella principale del tuo sito e che contiene tutte le pagine che per qualche motivo non vorresti (condizionale, non imperativo) fossero indicizzate dai motori di ricerca. Come esempio, prendi http://www.maisazi.com/robots.txt o tanti altri così.

    @Angelbit
    Attenzione all’innaturalità della Link Popularity, primo fattore che fa pensare alla puzza di SEO. Il fatto che la Link Popularity cresca sempre in modo rigorosamente attinente, sempre solo da pagine e siti a tema, porta a pensare all’azione di qualcuno che si occupa di posizionamento. Invece la Link Popularity deve crescere casualmente e questo significa proprio che ogni tanto qualche link deve provenire da siti non a tema. Ad esempio, una ricetta sul pollo all’ananas, non deve essere sempre e solo “linkata” da altri blog/forum/siti a tema. Magari una volta sarà la mamma che su mammeonline.net (faccio per dire) indica la ricetta alla sua amica che gliela ha chiesto. Ovviamente è un esempio, ma avviene (e deve avvenire) in qualunque settore. Possibile che i link alla mia pagina di vendita dei televisori online siano sempre e solo su siti di gente che fa recensioni di televisori? Possibile che non ci sia una persona che su un sito di appassionati della caccia abbia consigliato a qualcuno che chiedeva che televisore comprare per vedere meglio il suo filmato? Mai? Neppure una volta?

    Quindi, in termini di performance è preferibile che i link arrivino da siti a tema, ma è importante che arrivino anche da pagine con frammenti a tema. Inoltre ogni tanto devono arrivare da siti totalmente fuori tema, meglio se comunità, forum e blog.

    Angelbit, non dirmi che non hai notato la costruzione del primo paragrafo di questo articolo :p

  • ***Angelbit, non dirmi che non hai notato la costruzione del primo paragrafo di questo articolo :p ***
    E da stamattina che cercavo di capire perche’ fradefra scrive sul tagliablog e mette il link al suo sito di cucina 😀

  • Articolo splendido; avevo già letto qualcosa del genere, forse proprio sul tuo blog.
    Io al momento, per problemi di tempo limitato, preferisco continuare a dedicarmi all’inserimento di nuovi contenuti, ma mi rendo conto che prima o poi dovrò fermarmi a fare pulizia di parte dei primi articoli, scritti prima di focalizzare con precisione l’argomento del mio blog.

    Certo che tagliare del tutto un intero articolo è abbastanza doloroso, ma comprendo e condivido il punto di vista del motore di ricerca.

  • @Angelbit
    :p
    Sai che non faccio nulla per caso, no? 🙂

    @Bobo
    Ricorda che tagliare non significa necessariamente rimuovere. Basta non indicizzare 🙂
    Per inciso, potresti scoprire che così perdi le visite che non ti interessano e salgono quelle che ti interessano (e spesso è proprio così che va).

  • Ma come si arriva ad avere 100 pagine buone tra 500 pagine di fuffa?

    Forse il problema è a monte, e correre ai ripari (come giustamente spiega fradefra) è un’agile contromossa.

    Sono dell’idea che è decisamente meglio (quando possibile) prevenire il problema concentrando il proprio sito, fin dalla nascita, su un solo particolare tema (e dimarazioni… 🙂 ).

    A questo proprosito mi chiedo quindi cosa accade (o accadrà) ai siti generalisti?

  • Complimenti per l’articolo.. Uno dei più rivelatori in questo blog..

  • Ottimo articolo, complimenti.

    Mi domandavo..una volta terminata quest’opera di scrematura dei contenuti secondo voi cosa mi devo aspettare dal punto di vista delle statistiche a breve e a lungo termine?

    Non so, per esempio un calo iniziale di visite provenienti da Google a causa della perdita di SERP per questa “coda lunga” di articoli non rilevanti che tolgo dall’indice e poi una graduale crescita di qualità? O la crescita non ci sarà mai perchè questa tecnica serve solo a migliorare le conversioni?

    Qual’è la vostra esperienza in merito?

  • @Alessandro
    Il problema è che molti fanno un sito senza una reale pianificazione dei contenuti (o il sito è nato anni fa, quando questa era fantascienza). Anche oggi, continua a succedere, per altro.

    @Massimiliano
    Quello che ho notato io, in queste situazioni, era una riduzione del traffico, senza perdita di conversioni. Poi nel medio/lungo il traffico saliva (ovviamente non hai livelli iniziali, ma in posizioni intermedie) restando però attinente.
    Abbiamo letto così, la cosa: perdi le chiavi che non sono tue, acquistano valore visibilità quelle che lo sono. In sostanza, riduci il traffico, diventi più attinente, in virtù di ciò, ne recuperi un po’.

  • @ Manu: Ripeto non capisco nulla di come funzionano i siti, i blog e tutto il resto, mi avvalgo solo di siti già pronti come myblog.it e webalice della Telecom e a quanto ho capito leggendo fra i vari blog il migliore è WordPress e di conseguenza sono solo un utilizzatore e non un programmatore ed avendo un po’ di intelligenza, risolvo i problemi elememtarmente, per esempio siccome questo blog ha dei problemi con i CMS (Giuro che manco so che sono), ma qui una volta si discuteva di questo e varie persone offrivano soluzioni; il sottoscritto che non sa diciamo così, né leggere, né scrivere, e visto che nei commenti il numero copriva l’username delle persone, allora ho pensato di mettere questi trattini e virgolette: —- >>>>, sperando che il nome venga spostato a destra e di conseguenza si veda, e siccome mi piace che la firma venga messa a destra e visto che nel commento non è possibile, allora uso lo stesso i trattini e le virgolette, così più o meno viene a destra.

    Quindi i problemi li risolvo così.

    Cosa più grave è che uso anche un Mac e quindi parecchie cose mi sono precluse.

    Non mi preoccupo minimamente di quello che fa Google, visto che ultimamente ha considerato tutti i siti dei MALWARE per dei problemi che ha avuto.

    I clienti devo trovarmeli io, preparo delle LANDING PAGE, così poi con l’email posso mandare altre offerte e di conseguenze di tutte queste chiacchiere: POPULAR LINK, SEO, ottimizzazione ed altro di Google mi fanno un baffo, Google non mi porta clienti, ne visitatori del mio sito, devo trovarmeli io, PUNTO E BASTA.

    E poi da un po’ di tempo non so se lo hai notato sono fra i primi nei commenti e questo perché inerisco i commenti verso l’una di notte. E siccome i lettori leggono quasi sempre i primi commenti, ha qualche visita in più così.

    ——— >>>>>>>> Francesco Martino

  • @ Manu e per tutti gli altri che lasciano i commenti in questo blog.

    Il trucchetto di mettere i trattini e le virgolette: —- >>>> funziona alla grande, esce il nome e vengono coperti i trattini.

    ————————— >>>>>>>> Francesco Martino

  • ***Sai che non faccio nulla per caso, no? 🙂 ***
    Lo sò… mi domandavo se l’avrà fatto come cura o come prevenzione… 🙂

  • @Angelbit
    Prevenzione, prevenzione 🙂
    maisazi.com di link fuori tema ne ha anche fin troppi. Alcuni persino da un forum Adult :p

  • Interessante, anche se concordo con chi dice che sarebbe meglio pianificare sin dall’inizio il proprio sito/blog per evitare diversioni su temi lontani da quello principale (quando ce n’è uno). Mettere mano su centinaia di pagine di contenuti per tagliare i rami secchi non è semplice, anche se effettivamente il discorso è sensato e condivisibile.

  • Ho letto in giro da vari blogger che il contenuto è il re, poi mi dicono che non lo è più tanto, forse mi sbaglio ma il contenuto è importante e determinate per blog che fanno opinione e anche tendenza su certi argomenti, per altri penso sia necessario un oculato utilizzo delle parole chiave nel contenuto, altrimenti non c’è trippa per gatti.
    Poi se qualche pagina va esclusa perché vetusta o poco conforme al sito si può ovviamente escludere dall’indicizzazione.

  • è ovvio che “content is the king”.
    nessuno ha mai detto che inserire contenuto non attinente con il sito è utile.
    anzi in certi casi…

    ovviamente il titolo era pensato per provocare una reazione…. link baiting?

  • Ciao Fra! Abbiamo parlato di questo argomento durante un coffee break di un tuo corso (tu non lo ricordi, ma io sì 🙂 ).

    Un caso problematico è costituito dai contenuti generati dagli utenti ed in particolare dai forum: per ogni discussione buona ce ne possono essere N meno buone o decisamente off topic rispetto al tema principale. Ad esempio, nell’area off topic di un forum SEO ci potrebbe essere una discussione con 50 reply riguardante il derby di milano che hanno giocato ieri. Google che fa? Posiziona tale discussione ai primi posti per una keyword che con la SEO non c’entra nulla e il sito riceve molto traffico fuffa (non interessato all’argomento principale). Estendendo il discorso a centinaia/migliaia di discussioni… diventa un bel problema.

    La soluzione è quella di includere tra le attività di Web Analytics da svolgere anche la selezione delle keyword che hanno portato (tanto/troppo) traffico off topic, col fine di rimuovere dagli indici di Google le pagine relative a tali keyword. Concordi?

  • Interessantissimo e condivisibile punto di vista, anche se penso che pochi “taglieranno” i rami secchi dei loro blog anche perchè, a dirla tutta, è un impresa davvero “ardua”…

    @ Davide: c’è un errore nel link di maisazo (manca una t in “http”)

  • @Paolo
    Davo per scontato che ogni persona con un minimo di interesse per il Web Marketing, faccia quel controllo :p
    Certo, io ogni giorno controllo le visite per chiavi ed una volta al mese le riguardo su un periodo più lungo, per veder emergere quelle poco attinenti. Inoltre è fondamentale guardare nei webmaster tools di google, come lui ci dice che compare il nostro sito a fronte di ricerche. Avere troppe esposizioni per ricerche non attinenti, soprattutto se poi vi sono anche i click, non è per nulla positivo.

    Chiacchierata alla macchinetta del caffè? Vedi? Sei un privileggiato, hai saputo molto prima di altri :p […scappo per evitare le uova marce…]

    @Ottantotto
    Certo che non è facile e porta via tempo e proprio questo giustifica il fatto che poi alcuni siti salgano ed altri scendano. Chi è interessato sul serio al Web Marketing, questo tempo lo deve trovare, altrimenti parliamo di aria fritta 🙂
    Non lo dico a te, ma a molti che questa cosa non l’hanno chiara: il Web Marketing non può essere gratis. O si paga o si investe del proprio tempo (che poi alla fine sono sempre soldi).

  • Effettivamente solo ora metto a fuoco una parola, web marketing; è qualche giorno che ci penso, da quando è stato pubblicato l’articolo, che probabilmente su un sito che vive su AdSense e simili tagliare/non indicizzare contenuto che porta traffico non è una buona idea.

    Ho scoperto l’acqua calda, vero?

  • ==> “Ho scoperto l’acqua calda, vero?” di Bobo
    Temo di sì 🙂 Però fa niente, ogni intervento è utile 🙂

Rispondi

Max Valle
Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social
Iscriviti alla Newsletter
Main sponsor

Sponsor

Scroll to Top