Google, paladino del web o arbitro incapace?

Condividi su facebook
Condividi su twitter
Condividi su linkedin
Condividi su whatsapp
Condividi su telegram

Ogni volta che decido di migliorare il posizionamento di una pagina del mio sito, seguo sempre la stessa procedura. Prima di tutto cerco di capire se c’è interesse intorno all’argomento trattato nella pagina e poi verifico il livello di competizione online. Questo mi permette di capire se il tempo che dovrò impiegare per ottenere le prime posizioni su Google valga lo sforzo che dovrà essere fatto. Infatti, sarebbe inutile posizionare una pagina in cima a Google se nessuno è interessato, oppure sarebbe troppo lungo raggiungere dei risultati nel caso in cui la competitività del tema scelto fosse molto alta.

Per chiarirmi le idee molto velocemente, utilizzo due strumenti gratuiti: Google Keyword Planner e SEOquake. Il primo mi permette di capire quante ricerche generano le keyword direttamente legate alla pagina che desidero spingere e il secondo mi da le informazioni che cerco a proposito della forza dei siti e delle pagine con cui mi dovrò confrontare.

Fatta questa premessa, passo all’azione sapendo che, questa volta, ho preso di mira un argomento altamente competitivo, quello del web marketing.

Per prima cosa mi collego con il tool Google Keyword Planner (meglio conosciuto con il nome italiano Strumento di pianificazione delle parole chiave) e inserisco il termine web marketing. Siccome non voglio risposte generiche, seppur correlate al termine da me indicato, oltre che ad aver selezionato le opzioni lingua/italiano e paese/italia, inserisco il termine web marketing anche nel campo Inclusione/Esclusione termini.

Il risultato che ottengo è che, come era facile intuire, l’argomento è molto ricercato su internet in tante differenti declinazioni.

Ricerca di web marketing in Google Keyword Planner

E in particolare, scopro che il termine web marketing genera all’incirca 6.600 ricerche in Italia.

La prima verifica mi spinge ad proseguire la mia ricerca, sapendo però che troverò una competitività per questo termine molto alta, ed infatti questo è proprio quello che accade. In questo caso, come accennato prima, per valutare questo aspetto mi avvalgo della fantastica estensione per Chrome, che prende il nome di SEOquake (ci sono versioni gratuite anche per browser differenti).

Con questa estensione attiva, faccio la mia verifica, inserendo sul campo di ricerca di Google.it il termine web marketing.

Ricerca di web marketing utilizzando SEOquake

La figura sopra, fa capire come viene modificata la pagina di Google quando SEOquake è attivo. In particolare otteniamo tutta una serie di informazioni (modificabili dalle preferenze dell’estensione) che mi permettono di fare una valutazione generica sulla forza dei siti suggeriti da Google. In particolare, quello che mi interessa sapere è il PageRank e i link diretti alle pagine che appaiono come risultati.

Su 373 milioni di pagine recensite riconducibili al termine da me inserito, vedo che i primi tre posti sono occupati da siti che ovviamente Google ritiene molto autorevoli in materia. Il primo posto è occupato da una pagina di Wikipedia, il secondo dal sito e-max.it e il terzo dal sito html.it con la sua sezione dedicata al tema di mio interesse.

Su Wikipedia c’è poco da dire, l’autorevolezza del sito è indiscutibile, e c’è poco da dire anche su gli altri due. E-max ha un PageRank addirittura pari a 7 (lo stesso di google.it, tanto per fare un paragone) e 464.067 link (fonte semrush.com), mentre per html.it il PageRank è pari a 5 e 1.689 link.

Nota bene, il PageRank e i link in entrata non sono gli unici elementi che valuto per capire se un sito è autorevole, ma come prima analisi utilizzo questi valori per farmi un’idea indicativa sulla competitività della keyword.

E proprio quando sto per abbandonare l’idea di promuovere il termine web marketing per il mio sito, decido di continuare con le mie valutazioni scoprendo qualcosa che da una parte mi ha lasciato a bocca aperta, dall’altra conferma l’idea che mi frullava in testa da molto tempo, che vi farò capire alla fine di questo articolo.

Per approfondire il tipo di valutazione che sto facendo, utilizzo altri strumenti gratuiti che Internet mette a disposizione come Majestic SEO. Questo sito, dietro una registrazione gratuita, fornisce interessantissimi parametri, come la quantità e la qualità dei link diretti verso una pagina di nostro interesse, per capire in modo più dettagliato la forza che ha un determinato dominio.

Mi collego con la loro home page, accedo al mio account e inserisco il primo dominio che voglio analizzare e con il quale, almeno in teoria, dovrei entrare in competizione. Il risultato che ottengo mi spalanca le porte verso un viaggio la cui destinazione era ignota solo pochi minuti prima.

e-max.it in Majestic SEO

I valori che mi fanno sobbalzare sulla sedia sono il numero di link diretti al sito e-max.it. Come potete vedere sono oltre 18 milioni (esatto, proprio così). Di primo acchito ho pensato: wow, chi ha realizzato e promosso questo sito ha fatto un capolavoro, tanto di cappello. Quando mai sarò in grado di ottenere risultati anche solo lontanamente paragonabili a questi?

Dopo un primo momento di ammirazione, sono andato a vedere un altro parametro, e cioè la distribuzione di anchor text e l’immagine che segue è il risultato ottenuto.

Anchor text di e-max.it in Majestic SEO

Come potete vedere, il termine web marketing ha la percentuale maggiore. Questo significa, che dei 18.000.000 di link individuati da Majestic SEO, oltre 7 milioni sono composti da un anchor text fatti con la sola keyword web marketing (termine per il quale è-max è terzo su google). Mentre per il termine web agency (termine per il quale è-max è sesto su google), i link individuati sono oltre 5 milioni.

A questo punto ho cominciato a pensare che qualcosa non tornava…

Allora, per fare un confronto molto generico, ho preso un sito che per chi si occupa di SEO e di web marketing è punto di riferimento, a livello mondiale, e cioè Moz. Bene, secondo Majestic SEO, il sito moz.com ha in totale meno di 2 milioni di link (ben nove volte in meno di e-max) e un profilo backlink decisamente molto più naturale.

Anchor text di moz.com in Majestic SEO

Come potete vedere, la prima keyword strategica (escluso il brand moz.com) è seo ed ha una percentuale inferiore al 5%. Quindi ero in presenza di due profili molto diversi.

Mi rendo conto che confrontare i due siti in questo modo lascia il tempo che trova ma l’effetto è quello di avermi reso ancora più curioso e spinto a saperne di più. E vi assicuro che la mia curiosità è stata ripagata. Alla grande.

Quello che ora dovevo fare, era capire come il sito e-max era riuscito ad ottenere 7 milioni di link con il termine web marketing e 5 con il termine web agency. Se loro ce l’hanno fatta, allora ce la devo fare anche io.

Se andate a vedere la sezione Backlinks di Majestic SEO, potete osservare 5 pagine esterne dove sono presenti i link diretti a e-max e l’anchor text utilizzato (oltre ad altri valori). Disponendo di un account a pagamento, le informazioni che si possono ottenere sono certamente più approfondite, ma per il momento è più che sufficiente.

Il primo link che vado a controllare è il seguente: http://www.iti.gov.br/index.php/icp-brasil
Si tratta addirittura del sito dell’Istituto Nazionale di Tecnologia dell’Informazione brasiliano. Con il comando Trova cerco di individuare sulla pagina in questione l’anchor text web marketing, ma niente da fare, non si trova. Allora controllo il sorgente della pagina ed effettuo una nuova ricerca e quello che segue è il risultato che ottengo:

Link verso e-max.it da www.iti.gov.br

Come vedete il link c’è ma non si vede con il browser. Boh, non capisco…
Allora controllo il secondo link: http://www.venicemarathon.it/index.php/it/
Anche qui ottengo lo stesso risultato, dal browser niente, ma visualizzando il sorgente ottengo quello che mostro nella figura che segue:

Link verso e-max.it da www.venicemarathon.it

I due link hanno il tag display:none. Ma mentre il primo non so come possano averlo inserito, il secondo è associato ad un plugin per Joomla.

Per capire da quanto tempo questi link sono presenti sui rispettivi siti, faccio riferimento a Archive.org e scopro che il primo è attivo almeno da Giugno 2013, mentre il secondo da Aprile 2013. Questo significa che non sono link recenti, anzi.

Per farla breve, senza entrare nel dettagli delle ulteriori indagini che ho fatto, ho scoperto che e-max ha pubblicato diversi plugin che una volta installati su un sito che gira sotto Joomla, pubblicano, in modo nascosto (display:none), un link strategico collegato a e-max.

Questo ha fatto infuriare diversi utenti che hanno pubblicato le loro veementi proteste attraverso questa pagina.

Ecco, in particolare una di loro:

Lamentela circa il plugin Easy Open Graph su extensions.joomla.org

Questa è la risposta dell’autore del plugin:

Risposta alla lamentela circa il plugin Easy Open Graph su extensions.joomla.org

A questo punto, dopo aver fatto altri controlli appare chiaro che:

  • Tutti i siti che ho avuto modo di controllare, in cui è posizionato il loro link, girano sotto Joomla
  • Tutti i link che ho avuto modo di controllare, sono nascosti (display:none)
  • Quasi tutti i link che ho avuto modo di controllare, sono associati ai plugin rilasciati gratuitamente
  • Tutti i link che ho avuto modo di controllare, sono attivi da molto tempo, alcuni da più di un anno

Questo significa due cose; la prima (non trascurabile) è che ovviamente non posso e non ho potuto controllare 18 milioni di link, la seconda cosa è che non si capisce perché i link rilevati siano tutti nascosti.

A tal proposito, riporto due link, fondamentali per inquadrare la situazione, che indicano chiaramente quale deve essere il comportamento del webmaster in funzione della promozione del proprio sito. La prima pagina è raggiungibile attraverso questo indirizzo: https://support.google.com/webmasters/answer/66353?hl=it, mentre la seconda pagina è raggiungibile attraverso questo indirizzo: http://blog.e-max.it/web-marketing-bologna/white-hat-seo.html

Entrambe le pagine dicono come sia vietato utilizzare la tecnica del testo e dei link nascosti. Notare come, paradosso dei paradossi, il secondo link è un articolo pubblicato proprio tramite il blog ufficiale di e-max.

Ecco cosa c’è scritto sulla pagina di Google:

“La presenza di testo o link nascosti nei tuoi contenuti per manipolare il tuo ranking nei risultati di ricerca di Google può essere considerato ingannevole e costituisce una violazione delle Istruzioni per i webmaster di Google.”

Conclusioni

Dopo una lunga premessa, giunge il momento di trarre le conclusioni. Tuttavia, decido di non farlo. Infatti, non voglio esprimere giudizi sulla strategia adottata da e-max, non è questo il punto. Preferisco che lo facciate voi. Anzi, vorrei che tutti facessero le proprie verifiche e approfondimenti al fine di confermare o ribaltare completamente i dati riportatati in questo articolo.

Quello che invece voglio fare, è aprire una discussione su Google e su il suo ruolo sul web. Per questo motivo riprendo il titolo dell’articolo e riscrivo: “Google, paladino del web o arbitro incapace?”

Nel primo caso dovremmo pensare a Google come un paladino del web, alla costante ricerca di siti e contenuti di qualità, per il solo ed esclusivo bene degli utenti. E se questo è vero dovremmo ritenere Google alla stregua di un’autorità morale e assecondarlo in religioso silenzio applicando alla lettera le linee guida per webmaster.

Nel secondo caso invece, dovremmo ritenere che Google non sia così autorevole come la quasi totalità di chi lavora online crede, in quanto, un motore di ricerca che non è in grado di individuare strategie (perpetrate per diversi mesi) apparentemente fuori dalle linee guida, che lui stesso ha stabilito, è un motore inefficace ed incapace.

Io, la mia opinione, me la sono fatta. Quale è la vostra? Non vedo l’ora di leggere le vostre considerazioni attraverso la sezione commenti.

Autore: Diego Gualdoni di SeoLogico.it, per il TagliaBlog.

UPDATE: il 12 Maggio 2014, Matteo Landi ha pubblicato sul blog di e-max una articolata risposta all’analisi pubblicata qui sopra. Invito tutti a leggere la replica per comprendere anche il punto di vista dell’interessato, come è giusto e sacrosanto che sia.

2dc13395536c431966c0b7bc5282437b
Autore
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.
×
2dc13395536c431966c0b7bc5282437b
Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, aumentando i clienti, in modo serio e produttivo, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.
Latest Posts
  • Strumenti in google search console per webmaster
  • intervista alessia martalò
  • web stories
  • seo checklist

48 Comments

  • Anche se è una discussione datata, vorrei solo precisare una cosa: il link con “display:none” non indica nessuna falla da parte di Joomla perché ognuno può creare e installare tutti i plugin che vuole (e questo vale per qualsiasi CMS), se poi il plugin contiene un link nascosto non dipende da eventuali falle nel CMS.

    Reply
  • Io scrivo contenuti che reputo di qualità (magari sono troppo vanitoso chissà) e mi vedo scavalcato da siti inferiori nei contenuti. Sinceramente la mia speranza è che i motori di ricerca in un futuro prossimo inizino a fare quello che dicono. Per il momento non sempre content is king

    Reply
  • Piccolo inciso visto che l’articolo ne parla: seriamente usate SEOQuake? Da me ha infognato Firefox peggio di un malware, sempre avuti un po’ di dubbi su questi fantomatici tool per la SEO, peraltro adesso ho la conferma che puoi vivere felice e fare il tuo lavoro anche senza farti pippe mentali sul PageRank che ti mostrano i risultati.

    E soprattutto, senza quella barra orribile sotto i bookmark.

    Io invece dico che Google detta legge eccome, tant’è che piovono penalizzazioni da ogni dove ed è ora che ci diamo tutti una bella ridimensionata, con l’aggiunta di una piccola dose di umiltà. Si può lavorare benissimo anche senza falsare i risultati e supercazzolare i clienti, piaccia o meno.

    Reply
  • Sarò schietta e dirò subito quello che dico sempre: quel che dice Google non è legge. Che poi si vogliano seguire o meno le sue linee guida, è affare del webmaster.

    Fatta la premessa, ecco le mie considerazione:

    Inserire un link di credito nel plugin è pratica del tutto lecita. Non c’è inganno ed è semplicemente un modo per farsi conoscere dagli utenti. Non c’è niente di sbagliato in questo.
    Il VERO problema (etico e SEO) sta in quel display:none. Il link è nascosto ed è stato piazzato appositamente per manipolare le SERP. Chi visita il sito non vede il link, quindi non ha valore in quanto a traffico referral. È un link inutile e solo dannoso sia per chi piazza sia per chi ospita il link.

    Questo è quanto. 🙂

    – Luana S.

    Reply
  • Il problema a mio avviso è come come gestire il display:none e qualsiasi tecnica per rendere invisibile un link presente nel codice. Se Google penalizzasse il sito linkato allora tale tecnica potrebbe essere facilmente utilizzate per fare Negative SEO e far penalizzare siti concorrenti. Insomma non è semplice la questione…

    Reply
  • E-max ci sta provando e per il momento gli sta andando bene.
    Esiste un interesse da parte di Google nel lasciar aperte queste scorciatoie?
    @Diego che sgamata che gli hai fatto, bravo!

    Reply
  • Mi è sempre piaciuto vedere gli spettacoli di magia. Vedo quello che riescono a fare e resto senza parole. Poi mi incuriosisco, vado a indagare su come hanno fatto, e resto sempre deluso…non era veramente magia.

    Ho paura che se allo stesso modo mi metto a studiare come un altro SEO ha fatto le sue magie, resterò deluso.
    Comunque tanto di cappello a emax. Tra il dire e il fare c’è di mezzo il mare, e loro hanno fatto, bravi!

    @Diego: tra paladino del web e arbitro incapace io direi “arbitro all’inglese”: fischia poco ma la partita è divertente, non credi?

    Reply
  • Ho letto l’articolo tutto di un fiato. Premetto che ho potuto constatare la preparazione dell’autore in alcuni suoi precedenti post e che in questo interessante articolo non si smentisce.

    Da un pezzo si parla di Google e la sua strategia del terrore a colpi di penalty e nofollow che a mio modestissimo parere sta davvero distruggendo il web. E’ evidente che Google sia davvero incapace di distinguere ogni singolo backlink (ipotesi molto probabile) e per questo motivo è plausibile che ricorra ad una strategia di scoraggiamento oppure gli algoritmi non stanno funzionando come dovrebbero/anche qui, cosa molto probabile).

    Questa analisi, peraltro accurata può darci un’idea “scientifica” di come, nonostante le linee guida di google siano state palesemente violate, questo sito abbia la seconda posizione. Forse è il caso di lasciar perdere le numerose “diavolerie” di Matt Cutts e applicare la seo con la testa.

    Complimenti a @Diego per questo articolo interessante e soprattutto per l’analisi effettuata che fa davvero riflettere, in un momento in cui Google, forse affamato da troppo potere, sta riempiendo il web di stupidaggini.

    Reply
  • Ciao Diego, sì ho capito e condivido il tuo punto di vista, eccome. L’informazione di Google in generale (soprattutto se si parla di Matt Cutts) tende a contraddirsi spesso nei fatti. Ecco perché sono convinto che l’unico modo sia analizzare e sperimentare.
    Come SEO (Semplice ma Esigente Osservatore) apprezzo molto i nuovi punti di vista che aprono un dibattito orientato alla crescita comune e non alla lapidazione del singolo.
    Nell’esempio del tuo post non si nota (perché il Team di Joomla ha da tempo ignorato la nostra richiesta per i plugin già caricati), ma nei plugin più recenti c’è un banner in giallo ben visibile con scritto “Inserts a backlink to the developer” (vedi la pagina http://extensions.joomla.org/extensions/social-web/social-share/social-multi-share/19509). Backlinck che qualsiasi Developer è in grado di togliere tra l’altro, essendo il codice open source.
    Tutto qui, l’analisi obiettiva e il confronto civile saranno sempre i benvenuti per quanto mi riguarda. Google è come Godzilla, fortissimo ma lento (soprattutto in Italia). Noi proviamo a essere sempre all’erta, per capire in che modo vorrà modificare la sua rotta.
    Nel frattempo Diego, buon cammino e buon lavoro sulla tortuosa e mai banale strada della SEO;-)

    Reply
  • Ciao Matteo, sono l’autore dell’articolo che Davide ha gentilmente pubblicato. Ho letto il tuo commento e il post sul vostro sito. Confermo ancora una volta che io non giudico e non voglio entrare nel merito della vostra strategia. Voi siete liberi di scegliere il vostro percorso e il modo di creare valore (come scritto nel vostro post). Il senso dell’articolo invece gira tutto intorno al titolo. Io non ce l’ho con voi, ma la mia è una provocazione nei confronti di google che dice delle cose e poi sembra clamorosamente contraddirsi nei fatti.

    Capisco che l’argomento è complesso e che non basta un post o un commento per spiegarsi a vicenda. Tuttavia, io ho capito quale è il vostro punto di vista, spero che voi abbiate capito il mio.

    Reply
  • Ottimo articolo! Oltre che a mettere in evidenza quanto Google sia un player poco attendibile in regime di monopolio, questo articolo è una vera e propria guida su come fare delle analisi approfondite sui competitor. Bravo Davide.

    Reply
  • Ciao @Davide, sono Matteo Landi, copy & SEO di e-max. Ho letto con interesse la tua analisi, come molti altri tuoi articoli da tanto tempo ormai. Ho sempre sostenuto che lavorare per creare valore all’utente sia la strategia vincente in ogni occasione.
    Creare plugin gratuiti è creazione di valore.
    I link sono un riconoscimento del lavoro della web agency, che i webmaster possono rimuovere senza problemi.
    L'”hide” è scelto per consentire a chi installa il plugin di poter rimuovere la visualizzazione dei credits dalla pagina che ospita il plugin stesso.
    Detto questo, credo che il confine tra “buoni” e “cattivi”, “paladini” e “incapaci” sia un po’ più complesso di così.
    Rimando al blog di e-max per la risposta completa.
    Grazie dell’attenzione,
    un saluto
    Matteo

    Reply
  • Secondo me bisogna chiedersi un’altra cosa: se strategie poco pulite di questo tipo funzionavano in passato e in parte ancora funzionano (come visto dall’esempio nel post), quanto tempo passerà prima che Google ripulisca per bene le sue SERP da siti che si sono posizionati in questo modo? Perchè a mio parere ci sta anche che alcuni siti posizionati con “spam” di questo tipo siano ancora in prima pagina per un po’ di tempo (mesi? anni?) ma se l’obiettivo di Google è davvero “qualità” allora prima o poi dovranno pur sparire.. a meno che, oltre allo “spam”, in quei siti ci sia anche della vera qualità 🙂

    Reply
  • Non è la prima volta che mi capita di vedere situazioni simili e di catalogarle come “x-files” della SEO. La mia personalissima ed opinabile opinione è che determinate strategie, se adottate nel 2014, portano sicuramente a penalizzazioni. Diversamente, chi in passato ne ha fatto ampio uso, mette Google nella posizione imbarazzante di dover ammettere l’autorevolezza del sito acquisita e mantenuta durante gli anni, pur non potendo trascurare il comportamento decisamente poco “etico”. Diciamo pure che questi siti godono di un “condono” simile a chi ha costruito una casa abusiva in riva al mare ma siccome ormai il danno è fatto…

    Reply
  • Almeno 5 anni fa avevo segnalato a Google un sito italiano con pr 7 che sfruttava un link nascosto in un template html gratuito (molto carino e ben fatto).

    Questo template html era molto usato allora, adesso non ho più verificato. Google decise di ignorare bellamente la mia segnalazione.

    Ragazzi, lo dico da anni: in gran parte delle serp Google non ha alcun controllo. Si va avanti così… e Matt Cutts è solo una testa di legno messa lì a fare marketing, ma senza alcuna valenza tecnica. E’ un commerciale…

    Reply
  • Non ho capito bene dai vari interventi se la paginetta luisvuitton si trova li per opera di un hacker oppure con il sonsenso del webmaster.
    Per quanto riguarda le falle di bigG il mio interrogativo di fondo rimane sempre lo stesso: G non sa, non può, non vuole.

    Reply
  • Grande Fabio, mi hai fatto scoprire una cosa molto interessante. Grazie ancora. Se ci sono altri di esempi, postateli qui.

    Reply
  • Se cercate in giro di casi analoghi ce n’è sono parecchi.
    Basta guardare, ad esempio, l’html della home di pagine gialle e cercare “none”…

    Reply
  • Analisi molto interessante. Avevo notato anch’io alcuni siti ben posizionati nella SERP, pur con link nascosti o altri mezzi assolutamente “sconsigliati”.

    A mio avviso, Google fa questo ragionamento: se così tanti siti lo linkano con quell’ancora, allora una certa pertinenza e una certa rilevanza le deve pur avere.

    Reply
  • in realtà i link “display:none” non sempre sono malevoli, immagina alle “single page application” o altri siti dinamici.
    Google può scrivere quello che vuole ma tecnicamente per considerare un link di quel tipo come truffaldino ci va un intervento umano, che neanche Google può e/o ha voglia di fare.

    Se vi interessa ho scritto sul mio blog un post su Facebook Audience, l’ alternativa ad Adsense.

    Reply
  • Certo, il punto è che Google è ancora parecchio imperfetto e capisco benissimo la rabbia di ritrovarsi penalizzati ingiustamente quando in giro è pieno di immondizia che non viene nemmeno sfiorata.
    Ciò non toglie che non mi piace chi bara 🙂

    Reply
  • Caro Andrea, non so se questo è il punto. Non credo sia una questione di essere furbi oppure no… La questione che invece mi preme di sottolineare è che Google è davvero poco coerente rispetto alle linee guida per webmaster che lui stesso ha stabilito.

    Da una parte è clamorosamente tollerante verso certe situazione, dall’altra penalizza, senza una reale motivazioni, siti che tutti conoscono come conformi alle linee guida di google. Leggi questo articolo e capirai a cosa mi riferisco http://www.mysocialweb.it/2014/04/16/google-penalizza/

    Reply
  • Mi ero accorto anche io qualche tempo fa di questa “anomalia”… Sinceramente mi girano un po le scatole ogni volta che vedo qualcuno che fa il furbo.

    Reply
  • @Davide grazie per avermi risposto. Si, effettivamente Diego ha ragione e ha ben spiegato.

    Reply
  • @Carmelo
    Beh, sinceramente la prima idea che mi sono fatto è stata quella di una pagina preconfezionata con migliaia di inbound link, acquistata (chissa dove) appunto dal webmaster di turno e caricata sul sito allo scopo di aumentare i link totali. Credo non sia poi così assurdo pensare che possa esistere un commercio del genere 😉

    Ora però, alla luce dell’ultimo commento di Diego, credo abbia ragione lui, ovvero che sia opera di un hacker.

    Detto questo, resta comunque il fatto che ci troviamo di fronte ad un sito che per una keyword, molto “ambita” nel settore edile, si trova in serp alla 5a posizione con migliaia di link provenienti da pagine spammose… e l’algoritmo di Google non fà una piega.

    Ammesso e concesso sia opera di un hacker, comunque quel sito non dovrebbe essere lì.

    Ho postato questa esperienza solo per dare la mia personale conferma (se mai ce ne fosse stato bisogno) al concetto espresso in questo bel articolo di Diego Gualdoni

    Reply
  • Articolo interessantissimo,
    soprattutto per me che son nuovo.
    Che dire é stato giá detto molto da persone che ne sanno, e che sono nel settore da prima. IO farei solo un riflessione, che poi non é la mia ma l’avevo sentita dire, purtroppo credo che i “bug” di Google potrebbero risiedere in questo caso per la lingua, mi spiego, forse un caso del genere per un sito in lingua “inglese” non capiterebbe, non so la mia é un’osservazione, su una negligenza, in quanto la lingua italiana(cosi come il mercato italiano digitale) é ancora piccolo, e lo sará considerato i “numeri”. La butto la, ovvio che poi questo non riduce o elimina la “falla” e soprattutto il fatto che una cosa son le “belle linee guida” altra la realtá.

    Ad ogni modo grazie per il metodo e analisi, seguito il tuo sito!

    Reply
  • @Davide scusami ma non riesco a capire una cosa: secondo te la pagina delle borse louis vuitton sul sito Gruppo Roncelli chi l’ha creata? Chi gestisce il sito?

    Reply
  • @Davide, non ho avuto molto tempo di approfondire ma mi sembra un caso di hackeraggio. Infatti, quello che vedi è un frame proveniente dal dominio servingnotice(punto)com. Inoltre non c’è nessun collegamento dalla home alla pagina, né dalla pagina alla home. Non credo che sia opera del webmaster di grupporoncelli tanto per intenderci.

    Per quanto riguarda il DA, credo che sia un valore “fasullo”. Dammi un dominio registrato oggi e nel giro di un mese lo faccio arrivare ad un DA maggior di 40.

    Capisco che quello che dico può far inorridire tanti esperti, ma è quello che penso. Quello è un valore che è facilmente manipolabile.

    Reply
  • Trovo ammirevole la passione che hai messo in questa analisi ma la trovo una scoperta dell’acqua calda 🙂

    1) google non è autorevole, è semplicemente il meno peggio 🙂

    2) questo modo di “rubare” posizioni è vecchio come il cucco.

    3) al di sopra di una certa soglia di trust/autorevolezza puoi fare le peggiori schifezze o avere il 70% di link su una chiave Google ti premia come se fossi un affiliato del suo clan.

    4) qui si parla di vecchia scuola, ora le vere merdacce fanno direttamente seo negativa ai concorrenti

    5) la seo negativa e l’avvio della seoguerracivile è forse l’unica mossa davvero ben riuscita di Google per fermare i SEO. Come distribuire le pistole agli “ultras” all’ingresso dello stadio e dire “ammazzatevi pure”.

    6) Google sara sempre piu infame 🙂

    Reply
  • @Diego
    Dando per scontato che è evidente che ci troviamo di fronte ad una falla dell’algoritmo di Google, le ipotesi secondo me sono due:

    – Prima ipotesi: Google non si accorge.
    Ci credo poco, è vero che tutto sommato i link “ottenuti” da grupporoncelli(dot)it possono essere considerati “a tema”, in quanto dal momento in cui io sul mio sito pubblico la suddetta paginetta fasulla, per Google il mio sito tratta anche di “borse di loius vuitton”, quindi i link possono anche essere considerati “a tema”. Ma come la mettiamo se questi link provengono da pagine spammose in maniera eclatante. Google non può non vedere…

    – Seconda ipotesi: grossa falla nell’assegnazione della Domain Authority.
    Questo è quello che penso io (perfettamente opinabile). Google si accorge della paginetta fasulla e penalizza la suddetta pagina per la keyword “borse loius viutton” (ecchissenefrega). A questo punto la Domain Authority del sito dovrebbe crollare, ma evidentemente questo non avviene. Quindi la pagina in questione non si posiziona, ma il sito continua a contare migliaia di link, la DA va alle stelle e il dominio si posiziona a meraviglia per altre keyword su cui non ha commesso scorrettezze.

    Questa seconda ipotesi è quella a mio avviso più realistica. Mi sbaglierò, ma esiste una grossa falla dell’algoritmo nell’assegnazione della DA.

    Reply
  • Complimenti, ottima analisi.
    Aggiungerei che in molti CMS opensource troviamo plugin con nascosti riferimenti o codici nascosti (come per i templates gratuiti) che la maggior parte dei webmaster ignorano…

    Reply
  • Confermo: il dato che non stupisce è la possibilità di poter inserire link in modo (passatemi la parola) fraudolento e sia il plugin, sia l’addon…, e non sta a me giudicare l’operato (discutibile) di questa o quella persona. Quello che credo sia imbarazzante è come può Google non fare un controllo sullo spettro anchor e rilevare una sovraottimizzazione…E’ una cosa che fa cadere le braccia se si pensa alle ore trascorse a cercare di monitorare le percentuali e realizzare un profilo il più possibile pulito…Paladino o arbitro? Personalmente sono sempre più convinto che è una questione di mera fortuna. Mi spiego: puoi essere attento quanto vuoi, ma se poi ti passa la mannaia Google sei fregato, viceversa, puoi operare con tutti gli accorgimenti che vuoi e se sei abile e fortunato riesci a vivere di rendita…

    Reply
  • Articolo molto interessante. Bravi, mi piace e anche se sono soltanto un’appassionata, facendo 2 conti, ho visto tantissimi di questi plugin in giro e ci si rimane un po delusi da tutta questa sporcizia che Google stesso fa girare. Di nuovo BRAVI!

    Reply
  • Ho letto il post incuriosito, ma il risultato non mi ha stupito più di tanto in quanto, utilizzando wordpress da tempo, avevo già visto queste tecniche in giro: plugin identici a quello che citi e anche temi gratuiti che si comportano nella stessa maniera.
    Il caso più frequente è in ambito pirateria: scaricando temi pro da piattaforme peer to peer è quasi certo che siano stati inseriti link di quel tipo.. .ma in quel caso ce la si va a cercare.
    Quello che mi stupisce, e per cui ringrazio l’articolo, è che Google non se ne accorga! Dopo tutto il lavoro fatto per il Penguin Update pensavo che queste tecniche grossolane fossero completamente sterilizzate, e invece.
    Inaudito poi che Google non effettui il famigerato controllo manuale su di una pagina che riceve 18 milioni di link.
    Forse il comportamento del plugin è differente per i crawler… altra tecnica vietata.

    Reply
  • Articolo meraviglioso, da far girare, complimenti per l’analisi. Ma di risultati portati avanti con lo spam ce ne sono davvero tantissimi, soprattutto nelle serp più competitive e Google sembra non accorgersi di nulla. Quasi quasi conviene davvero fare spam 😉

    Reply
  • @Davide a mi sembra piuttosto bucato o dovremmo usare un detto napoletano per Google: “a ro vere e a ro ceca”!

    Reply
  • Davide, il tuo esempio è ancora più eclatante. Tanti link in ingresso e pure fuori tema. Non ci credo ancora… Ma voglio studiare con calma il sito che hai suggerito. Sono sicuro di scoprirne delle belle.

    Reply
  • Condivido la mia esperienza con un competitor, leggermente differente da quella analizzata nell’articolo ma che esplica allo stesso modo i limiti di Google nell’individuare le violazioni alle “sue” linee guida.
    Keyword: “impresa edile bergamo”. Il 5° in serp è grupporoncelli(dot)it.
    Link “dofollow” in entrata secondo Site Explorer Ahrefs = 5792.
    La pagina più linkata: http://www.grupporoncelli(dot)it/borse-louis-vuitton-sito-ufficiale(dot)html, con ben 4945 “dofollow”.
    Visitatela, è troppo carina! (ricordatevi che stiamo parlando di un impresa edile). Leggermente off-topic come argomento, che ne dite?!
    Verifico alcuni link che “puntano” a suddetta pagina, uno proviene da qua http://gold-age(dot)appspot(dot)com/?p=54001.
    Sono sempre più indignato.
    Faccio altre verifiche, e scopro che la paginetta fasulla “louis viutton” è utilizzata come escamotage da molti e molti siti come “tecnica” di link building.
    Come si fa a difendersi e controbattere a tecniche di questo tipo rimanendo però entro le linee guida di Google? Come si può essere competitivi in queste serp se la miopia di Google è così “pesante”?

    Reply
  • Ottima analisi! Che Google non sia uno strumento perfetto ce ne eravamo accorti e questo esempio lo conferma. Molte volte ci siamo chiesti: come fa il sito X ad avere tutti quei backinks?! 🙂

    Reply
  • Complimenti per l’analisi che hai fatto, ci sono anche ottime indicazioni su un efficace metodo di lavoro.

    Reply
  • Grazie a tutti per i complimenti e grazie sopratutto per i vostri contributi. Felice che l’articolo sia piaciuto.

    Reply
  • Certo che Google potrebbe anche farsi furbo e semplicemente non considerare i link all’intenro di un div “display:none”… pensavo già lo facesse sinceramente…

    Reply
  • Ma davvero la maggior parte di chi lavora online crede che Google sia autorevole? Forse sarebbe più opportuno dire che è infinitamente più autorevole dei suoi competitors.
    E su questo credo si possa essere tutti d’accordo.
    Questa buona analisi non è la prima e non sarà l’ultima a mettere in rilievo come ci siano ancora delle grosse falle da fruttare e per questo Google tenta la carta del terrorismo: per dissuadere i webmasters dal trarne vantaggio.
    Google può dimostrarsi talmente inefficiente che persino segnalando un sito che adotta tecniche non conformi (riscontrate persino dai loro dipendenti sul forum di assistenza) capita di non riscontrare alcuna conseguenza, neppure a due anni dalla la segnalazione.

    Reply
  • Ricerca molto ben fatta, davvero. E come spesso accade: “tutto e il contrario di tutto”.

    Reply
  • Tutti di corsa a fare un check dei plugin!!!
    Articolo molto interessante

    Reply
  • Ottima e accurata analisi di un posizionamento “strano” e decisamente poco pulito.

    Renato, per la falla in Joomla non sono d’accordo, in questo caso il plug in è stato scritto con un link nascosto, non centra Joomla.
    Ci sono parecchi temi e plugs di WordPress dove persiste lo stesso problema, non facciamo di tutta l’erba un fascio 😉

    Reply
  • bravo davide! In questo senso potresti approfondire l’analisi vedendo come rispondono gli altri motori. Bing in tal senso mi pare più onesto (ad occhio) 😉

    Reply
  • Grande analisi e stupefacente risultato:
    A parte la scorrettezza della “procedura” ed il “pressapochismo” degli algoritmi è indubbio che ci sia anche una falla di Joomla!
    Tuttavia bravo all’autore del plugin e alla sua etica.

    Reply

Rispondi

Max Valle
Max Valle

Da oltre 20 anni, fornisco consulenze per aziendee professionisti, che vogliono sviluppare il loro business, aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Iscriviti alla Newsletter
Main sponsor
logo kleecks

Sponsor

Wordlift
Prova Seozoom
Google, paladino del web o arbitro incapace?
Scroll to Top

Vuoi capire perchè il tuo sito non traffica?

REPORT SEO a soli 47€

anzichè 197€+iva
Giorni
Ore
Minuti
Secondi