Miti e malintesi della SEO (svelati da Google)

“L’ho letto online, quindi deve essere vero!”

Quante volte abbiamo sentito ripetere questa frase… di miti (spesso falsi) sulla SEO ne girano parecchi, e Google ha deciso nei giorni scorsi di sfatarne alcuni, rendendo pubbliche le presentazioni mostrate durante il “Tricks and Treats” webmaster event.

Le slide più interessanti (IMHO) sono le 24 che trovi qui sotto, relative a “Myths and Misconceptions”:



Ecco la traduzione (per i più pigri 🙂 ):

La “Top 10” dei falsi miti

  1. I contenuti duplicati possono penalizzare il tuo sito
  2. Mischiare HTML e XHTML può creare problemi di verifica
  3. E’ importante essere presente in migliaia di motori di ricerca
  4. Utilizzare AdWords, AdSense o Analytics può aiutare (o danneggiare) il tuo sito
  5. Se una parola chiave è importante, allora è importante ripeterla in punti importanti su pagine importanti in modo che la pagina risulti importante per i motori di ricerca
  6. Utilizzare una sitemap in XML farà perdere posizioni al tuo sito
  7. Il PageRank è morto / il PageRank è tutto!
  8. E’ vitale fare un “submit” periodico del proprio sito nei motori
  9. Se un sito è ben posizionato, non bisogna toccarlo più
  10. Un codice (X)HTML valido permetterà al tuo sito di posizionarsi meglio

Altri falsi miti

  1. utilizzare il “disallow” nel file robots.txt rimuoverà il tuo sito (o le tue pagine) dall’indice
  2. Più link prendi e meglio è
  3. L’unico obiettivo veramente importante quando crei un sito è essere posizionato nei primi risultati di una SERP
  4. E’ meglio fare in modo che i vecchi URL restituiscano un errore 404, in modo che la nuova struttura del sito venga rilevata in modo naturale
  5. E’ importante utilizzare il meta tag “index, follow”
  6. Hostare il proprio sito su di un IP condiviso può causare una perdita di posizioni in SERP

Come scoprire i falsi miti

Secondo Google è possibile farlo:

  1. Verificando la reputazione del sito e di chi ci scrive
  2. Applicando il buon senso: certe cose sono troppo belle per essere vere 🙂
  3. Rimanendo aggiornati tramite Google Webmaster Central Blog
  4. Se il dubbio rimane, ponendo la domanda nei Google Webmaster Help Groups

Personalmente, ho trovato interessante l’ennesima puntualizzazione sul PageRank (ha la sua importanza, ma “Google usa oltre 200 altri fattori” per valutare la bontà di un sito), e quella sulla validazione del codice (meno del 5% dei siti ha un codice validato, ma browser e motori riescono comunque a “digerirli” senza problemi).

O invece pensi che alcuni di questi miti non siano poi così falsi? 😉

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

21 Comments

  • E cosi’ se ne va anche la questione dei contenuti duplicati…

    Me la tengo da parte questa presentazione 😉

  • Sul primo punto 2, falsi miti, sarebbe corretto che spiegassi meglio. Per esempio che “Mischiare HTML e XHTML può creare problemi di verifica” se fatti nella stessa pagina, perchè si così è vero, il validatore non ti passa un se stai usando un doctype XHTML.
    Superfluo … forse … ma dovesse fare che dopo diventi oggetto tu di falso mito 😀

  • Quella dei contenuti duplicati è l’ennesimo chiarimento “confuso” alla Google degli ultimi tempi.

    Leggendo in giro le varie precisazioni (non le cito neppure basta una ricerca mirata) scopriamo che…

    Non si tratta di una penalizzazione (nel senso che Google non ritiene di doverci punire) ma che è una cosa che può creare grossi problemi

    Quindi Google sta facendo disinformazione: sul rewriting, sull’indicizzazione degli SWF, sulla link popularity e vedremo su quali altre cose.

    Ovviamente credo nella buona fede di chi scrive, solo che non vedendo le cose dal punto di vista SEO e non avendo a che fare con le domande che i clienti ci fanno tutti i giorni, non si rendono conto dell’effetto che possono avere certe affermazioni.

    Cito per tutti questo post di GrayWolf, ispirato da tanto buon senso
    http://www.wolf-howl.com/seo/can-hurt-yourself-duplicate-content/

    Poi potremmo raccontare una storia…

    Poco più di un anno fa, un portale italiano che si muove in un settore super-competitivo (comprato per 10 milioni di € da un grosso acquirente e affidato ai suoi SEO), vide duplicate (e linkate) per errore il 50% delle sue pagine (che erano centinaia di migliaia).

    Dopo poche settimane ha iniziato a precipitare nelle SERP. Risolto il problema è tornato lentamente alla normalità.

    Si è trattato di una “normale” fluttuazione? Strana coincidenza direi 😀

  • ci manca un (senza spazi) che non è stato decodificato, sul mio commento di prima.

  • @abruzzo… Il problema dell’html+xhtml è vero ai fini della validazione ma per i motori di ricerca non significa nulla, è questo che voleva dire…

  • precisiamo.. se un sito è sviluppato con html 4, tabellare e con un codice sporco, ci sono molti più fattori che potrebbero penalizzare l’indicizzazione e il successivo posizionamento del tipo: assenza di didascalie adiacenti alle immagini (iniziano ad acquistare importanza) intestazioni grafiche senza un’alternativa testuale, e tutti gli elementi che in un contesto semantico non dovrebbero apparire nemmeno lontanamente.
    Ciononostante continuo a vedere siti con tanto di validazione.. magari formati da una singola e enorme immagine al centro.. la validazione non ha alcun significato in questo contesto.
    L’argomento è delicato e qui rischierei di andare off topic…
    il succo di questo commento è: è tutto relativo e non esistono risposte univoche quando si parla di seo o in genere di sviluppo web

  • La mia interpretazione di questi “falsi miti” è che tutti quei punti sono *importanti ma non vitali*: spesso l’errore che viene fatto per raggiungere delle buone posizioni è concentrare le proprie energie su un singolo aspetto dell’ottimizzazione, lasciando gli altri ad un ruolo secondario.
    Quello che Google ci vuole dire (sempre IMHO) è invece che l’ottimizzazione migliore è quella che si tiene conto di TUTTI quei punti INSIEME… come in una squadra di calcio… un fuoriclasse in una squadra di brocchi non vincerà la champions, cosi’ come un pagerank = 8 non è detto che venga ben posizionato se gli altri fattori di ottimizzazione sono fatti male…
    Quindi, solo un sito ben bilanciato (in base al tempo /budget a disposizione) potrà avere successo nelle SERP…

  • La scrittura di pagine web valide ed Accesibili è una buona cosa, che cerco di fare sempre… ancor di pià l’accesibilità, oltre che per una più larga cerchia di utenti, dovrebbe fornire gli strumenti giusti per essere maggiormente descrittivi senza fare necessariamente il tanto blasonato stuffing o density.

    i miei dubbi sono sui links: di fatto avere milioni di links non è detto che aiuti come ci si aspetta (waste of time), ma alcuni links autorevoli dovrebbero comunque aiutare.

  • Vorrei sottolineare questo punto:
    – Se una parola chiave è importante, allora è importante ripeterla in punti importanti su pagine importanti in modo che la pagina risulti importante per i motori di ricerca

    Quindi con questo vuole dire che la key density non è importante in una pagina? così come non lo è riprendere la key in punti strategici come H1, H2 (…) ecc ecc..

    MmmM…

  • A me sembra che si dica tutto e non si dica niente, l’unica cosa che è inequivocabile è che a google non gliene frega nulla del codice validato, per il resto o cose che già sapevamo o altre cose molto vage che non danno alcun aiuto ai SEO.

  • ma infatti a google poco interessa di aiutare i seo… preferisce tenerli sulle spine. ed è meglio così. altrimenti saremmo tutti esperti!

  • Se tutto questo fosse vero, a parte i contenuti, quale sarebbe la differenza tra un sito che si trova in prima pagina ed un sito che si trova in decima ?

  • conosco siti che sono ben posizionati su google senza che i loro proprietari sappiano niente si SEO e roba varia….

    alla fine credo che un sito gestito con passione e frequentemente aggiornato verrà sempre premiato da google

  • @Amelio

    anch’io conosco Oscar Pistorius, peccato che egli non rappresenti un caso tanto comune 🙂

  • Bello questo post… Salviamo e teniamo presente… 🙂

  • Ben vengano queste precisazioni, cmq secondo me dovrebbe fare più chiarezza, per esempio:
    contenuti duplicati, ok li sa riconoscere e quindi ignorare, ma tutto il pagerank e l’autorevolezza acquistati dalla pagina duplicata ignorata viene perso, oppure riversato sulla pagina originale?
    Non è una questione di poco conto.

  • Se nemmeno la logica è un’opinione, conterà pur qualcosa.

    Esempio: i contenuti duplicati non hanno senso di essere in quanto ‘ci sono già’, il codice validato è meglio di un codice sporco, col pagerank senza utenze ci fai la colla, etc.

    Credo che il buonsenso di chi realizza un sito, e di chi scrive sul web, debba prevalere indipendentemente da ‘miti’ veri o presunti.

    Che senso ha per l’utente che esegue una ricerca trovare contenuti duplicati?
    Che figura ci fa il sito?
    Troppi siti secondo me sono ancora ‘pensati per i SEO’ non per gli utenti, e sono questi ad utilizzarlo.

  • CA*** ero convinto che l’ip condiviso con altri miei siti mi danneggiasse HO PURE SPESO UN PATRIMONIO PER RIPARARE!
    haaa errori di gioventù!

  • @Seo Torino

    io quei soldi continuerei a spenderli, non per evitare danni ma per evitare di far vedere a grande fratello Google che abbiamo 10 siti sullo stesso argomento posizionati con le stesse keyword (identico ip e whois, tu cosa faresti al posto suo)?

    Poi uno è libero di rischiare

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy