Quali saranno i Fattori di Ranking su Google nel 2018?

Fattori di Ranking su Google nel 2018, secondo SEMRush

La SEO è un settore in continua evoluzione. Ci sono più di 200 fattori di ranking secondo Google – tanto materiale per lavoro e ricerca – ma, fortunatamente, non tutti i fattori di ranking sono ugualmente importanti. È possibile massimizzare il valore della SEO concentrandosi solo su alcuni di essi.

Negli ultimi anni abbiamo visto che Google ha cominciato a dare priorità ai contenuti approfonditi, ai backlink di qualità e all’ottimizzazione mobile. Quindi tutti i consulenti SEO e webmaster si chiedono: “quali fattori saranno più importanti in futuro e su quali concentrarsi, in primis?”

Per parlare delle tendenze e discutere questo tema abbiamo chiesto a 4 esperti italiani su quali fattori focalizzarsi principalmente e quali, secondo la loro opinione, saranno più importanti nei prossimi anni. Condivido qui sotto le loro risposte, nella certezza che potranno darti una mano a pianificare la tua strategia SEO per il 2018.

Su quali fattori di ranking consiglieresti di focalizzarsi prima di tutto?

Benedetto Motisi, Consulente Web Freelance:

A onor del vero sono sempre stato un estimatore dei fattori off-page, senza essere un “estremista” di quel partito. Soprattutto, perché è ormai da 5 anni (un tempo che per l’online è davvero lungo) che i backlink devono avere un vero valore aggiunto a un sito. Fermo restando che in molte nicchie italiane funzionano ancora molto (troppo?) bene i link “di quantità”, continuo a dire che i link di “quantità”, intesi come collegamento propriamente detto – e che quindi sono in grado di portare utenti -, diano ancora più spinta.

Attenzione: tutto questo a “parità” (per quanto sia un concetto nella SEO estremamente labile) di fattori on-page. Da una parte, senza una buona ottimizzazione on-page si possono lanciare tutti i backlink del mondo ma Google non è più rozzo come una volta, dall’altra però, a meno che non ci si voglia posizionare per query poco competitive, senza backlink è davvero difficile si vada da qualche parte, specie in SERP in cui sono presenti portali autorevoli e tematizzati. Ci vuole equilibrio nel team, un po’ come negli Avengers: puoi avere quello che mena, come Hulk, ma serve anche il “cervello”, seppur corazzato, come Iron Man.

I fattori di backlink sono estremamente importanti per il ranking. Come conferma Google (e gli esperti qui intervistati), un profilo backlink forte è cruciale per avere un buon posizionamento del sito. Ecco 4 fattori che si sono dimostrati estremamente importanti, secondo il recente studio effettuato da SEMrush che parla di 17 fattori di ranking influenti:

Fattori di Backlink importanti per il Ranking

Emanuele Tolomei, imprenditore e consulente digitale presso “Esperto SEO”:

Continuo a sostenere che prossimamente le uniche nostre attenzioni dovranno rivolgersi alla UX. Lo dico perché il problema del 2017 è stato l’accentuarsi della perdita di utenti da parte di Google, soprattutto lato e-commerce. Mentre nel motore di ricerca si stanno accentuando le ricerche local, che saranno protagoniste della ricerca vocale e strumento strategico per Google Assistant, gli utenti hanno iniziato a considerare ormai Amazon, Ebay, Etsy, i motori di ricerca per fare shopping. La cosa ha portato molti negozi a doversi confrontare con l’ingresso in questi contenitori, anche a costo di cedere parte dei propri introiti.

Quindi aggiungerei anche che è il caso, per chi ancora non lo ha mai valutato, di iniziare a considerare i fattori “SEO”, anche in questi marketplace. È qui che ci si scontrerà nel 2018 sulle ricerche che interessano gli e-commerce. Per il resto, consiglio di smettere di considerare tutto quello che è desktop. Anche se i numeri sono ancora interessanti, è inutile continuare a guardare siti da monitor di 32″, quando poi gli utenti lo guarderanno da un 5″. Anche in fase di audit e di ottimizzazione, ma anche di keyword research, ho passato tutto il 2017 a studiare gli aspetti mobile, per prepararmi a un 2018 dove onestamente a titolo personale sono molto tranquillo, visto come è messa la concorrenza. Sono in pochi ad aver mollato del tutto il desktop. Direi… meglio così.

Gaetano Romeo, CBO presso “BePrime”:

Come ogni fine anno ci troviamo a fare le nostre previsioni sui fattori di ranking che andranno per la maggiore l’anno prossimo. A mio avviso tra i fattori più importanti sui quali dovrà focalizzarsi l’attenzione degli addetti ai lavori sono due, come ha lo stesso Google rimarcato: link e tutto ciò che riguarda ogni singolo aspetto del mobile. Forse potremmo realmente vivere nell’era del concetto di “Only Mobile”.

Riccardo Mares, Digital Manager presso “Studio Cappello”:

Lavorando in un’agenzia con molti clienti e coordinando il team SEO ho la fortuna di avere una visione abbastanza ampia delle casistiche dei siti web. Quelli che secondo me sono i punti dolenti della maggior parte dei siti sono:

  • Struttura dei link interni non ottimale, con conseguente spreco di crawling budget e distribuzione “casuale” del PageRank
  • Mancanza di una strategia conversionale nelle pagine

Per il primo punto è necessario che il SEO abbia una visione d’insieme del sito, ma soprattutto è necessario che abbia una visione della strategia conversionale del sito. Sicuramente ci sono comunque delle regole de facto che vanno bene per la maggioranza dei siti web, soprattutto ecommerce. Penso alla gestione di: menu, paginazione, filtri, etc.

Per il secondo punto spesso ci si focalizza sul rank delle keyword, senza pensare che la nostra opera deve portare un utente, che ha un’esigenza, a trovare in SERP una nostra pagina che gli consente di convertire.

Secondo te quali fattori di ranking saranno più importanti nei prossimi anni, e quali invece perderanno la loro influenza?

Gaetano Romeo:

Come detto mi concentrerei su tutti i fattori legati all’ottimizzazione mobile. Quindi fattori quali velocità del sito, sicurezza (HTTPS), ottimizzazione immagini (fattore sempre troppo trascurato). Penso che la qualità dei contenuti, dove per qualità intendo saper rispondere al reale search intent dell’utente, giocherà un ruolo sempre più importante a discapito del concetto di keyword, credo che Google sia ormai abbastanza maturo da capire sinonimi e correlati abbastanza bene.

Riccardo Mares:

“La prima “botta” è arrivata nel 2012 con il (not provided), è stata poi la volta di Google Hummingbird nel 2013 e di Google Fred (figlio “illegittimo” di Google) con la coda lunga dell’intelligenza artificiale. Il tutto ha portato ad un distacco sempre più grande del SEO dal mondo delle keyword.

Il futuro sarà costituito dai comandi vocali e da Internet of Things: più la tecnologia si evolverà come riconoscimento della domanda e dell’intento della stessa, più la gente userà le macchine come oracoli o servitori.

Più saremo liberi nel chiedere cosa stiamo cercando (fino a qualche anno fa si parlava di query formate da 2-3 parole) più la dimensione delle frasi di ricerca aumenterà ed aumentando la crescita per numero delle keyword sarà esponenziale.

Ha ancora senso parlare di keyword? Probabilmente sì, finché Google cercherà comunque di tradurre le richieste complesse in keyword semplici e a lui note. Quello che sarà la bacchetta magica dei SEO sarà riuscire a progettare sempre meglio l’impianto dei contenuti al fine di garantire a Google una perfetta interpretazione del testo e delle risposte in esso contenute.

Detto questo ritengo che il PageRank avrà ancora una vita lunghissima e con lui l’importanza del backlink profile! Magari Google sarà sempre più bravo a capire la naturalezza dei link, ma continueranno paurosamente a contare.

Benedetto Motisi:

Se potessi giocarmela con più probabilità di azzeccare una partita della serie B austriaca, direi che decisamente inizieranno ad avere valore i “social signals” che, lo dico per scansare gli equivoci più veloce di una serpentina di Ivica Vastic (per riprendere l’analogia iniziale), NON è ciò che succede su Facebook ma il comportamento degli utenti all’interno del sito.

Diamine, quel bounce rate così basso (48%) emerso nell’ultimo Ranking Factors mi ha stupito, considerato che sono abituato a percentuali più alte (sopra il 70%). Va da sé che da anni marketer come Dan Petrovic e alcuni articoli su Search Engine Land smentivano questa teoria, ma la SEO è una materia in evoluzione e se non con un impatto diretto – alla fine è una metrica diretta conseguenza di una buona ottimizzazione anche di UX – qualche correlazione forse forse ci sarà.

Penso invece che inizieranno a perdere influenza tutti quegli elementi facilmente ed economicamente modificabili (vedi link automatici o testi autogenerati). Molti test SEO vanno in direzione opposta, insieme a Francesco Margherita ne stiamo facendo uno sui contenuti duplicati, ma c’è da dire che il mercato italiano è reattivo in tempi più lunghi rispetto ad altri.

Secondo lo studio di SEMRush, le pagine con posizioni alte hanno un bounce rate più basso. Questo potrebbe essere dovuto alla “fiducia” che gli utenti hanno per le pagine nei primi posti, o potrebbe significare che le pagine con posizionamento più basso sono meno rilevanti. Anche se i rappresentanti di Google dichiarano che tutti i segnali di comportamento degli utenti sono troppo “rumorosi” da considerare per classificare la pagina; un bounce rate alto potrebbe indicare che il contenuto nella pagina è poco rilevante, il che è negativo sia per gli utenti che per i motori di ricerca.

Bounce rate, Time on site, Pages per session

Emanuele Tolomei:

Riallacciandomi alla precedente risposta, quello che conterà sempre di più sarà la UX, ma anche i microdati e le performance. Negli ultimi periodi, abbiamo visto aumentare anche la varietà dei risultati, soprattutto da mobile. Ad esempio per gli e-commerce, nei risultati per immagini abbiamo il tag “Prodotto”, quando l’immagine è associata a un oggetto in vendita e la scheda dell’immagine contiene molte informazioni, che vengono compilate con i microdati. Così accade anche per i video, dove sempre nella ricerca per immagini, troviamo risultati con l’icona “Play”, che mostrano il poster del video e il rimando alla visualizzazione sia su YouTube, che su siti che hanno i microdati ben definiti.

L’altra cosa che farà la differenza saranno le piattaforme, intese come marketplace, ma anche come CMS, sempre più verticali verso specifici settori, con possibilità di avere già non più un APP, ma una PWA, che sicuramente è il futuro della fruizione dei siti web su smartphone. Quindi, sono certo che anche il tipo di tecnologia, avrà la sua rilevanza. Inizierei a pensare anche a chatbot o in generale sistemi con cui, attraverso il machine learning e l’intelligenza artificiale, potremo comunicare con i vari bot e con le varie piattaforme. Noi SEO abbiamo sempre comunicato con utenti e bot per aggiornarli sullo stato dei nostri siti o app, ma aspettiamoci anche di doverlo fare sotto forme diverse da un file XML o TXT, altrimenti ci troveremo impreparati.

Ti trovi d’accordo con le risposte date dai 4 SEO? Quali pensi che saranno i principali fattori di ranking su Google del 2018? Lasciami pure il tuo commento qui sotto. 🙂

Condividi su facebook
Facebook
Condividi su google
Google+
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn
Condividi su pinterest
Pinterest

15 Comments

  • Grazie mille. Appena tornato dal Search Connect confermo quanto detto sopra.

  • Da utente, spero con tutta me stessa che i siti non vengano costruiti soltanto per mobile.
    Trovo molto frustrante la navigazione da smartphone (anche per siti completamente responsive, che rispetto a siti strutturati per una navigazione da pc sono poveri di contenuti e riduttivi) e svolgo tutte le operazioni più importanti da desktop.
    Purtroppo, noto sempre più che i siti vengono costruiti per gli smartphone… e non per gli utenti.

  • In base a quello che ho letto e sentito in giro, sono d’accordo un po’ con tutti, in particolare con Emanuele Tolomei: intelligenze artificiali, chatbot, assistenti virtuali – tutte novità con cui fare i conti.

    Anche la ricerca vocale e l’interesse per la local SEO cresceranno molto, nel prossimo futuro.

  • Condivido in pieno su velocità, https e l’ottimizzazione delle immagini.
    Bisogna orientarsi sul mobile. Basta pensare a quanto tempo una persona media passa fuori casa, quindi in mobile.
    Il desktop non sparirà, verrà solo usato di meno.

  • Bè ogni anno i fattori non cambiano, l’UX, la Link Building e la qualità dei contenuti sono concetti sempre validi, oggi come nel 2015 e così via. Certo la velocità oggi pesa di più, stesso per la UX però ho notato che sono fattori che vengono totalmente annullati di fronte ad una massiccia link popularity. Ne sono un esempio siti lentissimi, soprattutto istituzionali, che in molti casi possiedono una UX penosa e CMS pieni di bug, sono sempre in alto e non solo per le keywords di Brand.

    Insomma secondo me la velocità è un requisito ma non un fattore, cioè all’aumentare della velocità non aumenta il posizionamento ma se il nostro sito è lento sicuramente non farà bella figura con Google. Per lentezza parliamo di tempi di caricamento superiori ai 2/3 secondi, quindi se il mio sito si carica in 1 secondo non è quel fattore da solo a determinare il posizionamento 🙂

  • Alessandro Caira scusa la critica ma sembra che tu abbia ignorato completamente l’analisi della concorrenza.
    I siti istituzionali o ufficiali possono permettersi di essere orrendi, scomodi e lentissimi semplicemente perché non hanno alcun competitor!
    Un sito che si carica in 1 secondo non perde posizioni a patto che i suoi competitor non abbiano tempi di caricamento migliori!
    E gli esempi potrebbero continuare a oltranza…

  • Secondo me la sicurezza di un sito web sarà la vera protagonista nel 2018. Non intendo solo il protocollo https, ma tutto quello che riguarda la protezione del sito e dell’utente.

  • Scusate,
    ma che fine hanno fatto tutte le belle parole di Google di voler penalizzare siti con pubblicità invasiva, pubblicità above the fold, testi coperti da slide pubblicitarie che escono da fondo pagina, ecc… non doveva essere un fattore importante di posizionamento?
    Vedo sempre più siti con decine di migliaia di unici al giorno coperti da pubblicità ossessiva, davvero fastidiosi… ma a Google sembra proprio che non importi… ma di che stiamo parlando?
    Ma di quali fattori per il 2018 dovremmo parlare visto che non vengono rispettati quelli attuali?

  • @JJ
    Ma no figurati, il confronto è sempre positivo 🙂
    Il punto è che Google non costruisce le SERPs basandosi sulla velcoità di risposta dei vari Server,. E’ sicuramente importante un buon TTFB ed un render completo in tempi accettabili, tuttavia ritengo che la velocità non sia direttamente proporzionale al posizionamento.

    Se una risorsa si carica in 15 secondi ma è quella davvero più popolare (link building) ed ha tanti segnali positivi (basso pogo sticking) nessuna risorsa impopolare che si carica in 1 secondo può minimamente competere.

    A tal proposito io preferisco un ristorante che mi offre un piatto ben cucinato in 30 minuti piuttosto che il McDonalds che mi consegna il panino in 1 minuto, ma si tratta di un prodotto di bassa qualità e dai valori nutrizionali del tutto sballati 🙂 Spero che si sia capito il punto…

    Sicuramente Google sta combattendo per un web più sicuro e immediato (SSL, AMP) ma nel suo algoritmo il fattore primario è ancora la popolarità misurata con i backlinks perché nessuno vorrebbe una risorsa velocissima ma senza autorevolezza. Per primario intendo almeno il 70% di peso…

  • Alessandro secondo te resterà impopolare a lungo un ristorante che prepara lo stesso identico piatto in 15 minuti anziché in 30?
    Scusa la franchezza ma credo che gli editori seri, quelli che guardano lontano, difficilmente condividerebbero il tuo ragionamento.
    L’autorevolezza non andrebbe considerata (alla lunga) sottovalutando l’immediatezza della fruizione che dopotutto fa parte della user experience ovvero di quello che vogliono gli utenti a prescindere da quello che vuole l’algoritmo di Google.

    Più precisamente, le risorse impopolari non possono “minimamente competere” perché semplicemente NON sono competitori. Cioè non sono posizionate abbastanza vicino da essere considerate competitor per determinate keyword.
    O meglio, non lo sono ancora…
    Infatti qualora fosse presente una qualità superiore, sarebbe solo questione di tempo. Diventerebbero man mano sempre più popolari e col tempo diventerebbero competitor.

    Ho seguito casi in cui l’autorevolezza del brand name è arrivata al top anche senza link building, è arrivata con anni di ostinata perseveranza nel pubblicare risorse di qualità fruibili con una superiore UX, superiore ovviamente rispetto agli attuali e ai futuri competitor.
    Dunque, se puntiamo a risultati importanti a medio/lungo termine dobbiamo innanzitutto diventare meglio degli altri, prima di pensare ai backlink!

  • @JJ
    Fai bene ad essere diretto, lo apprezzo molto.
    Sono d’accordissimo sulla velocità e sulla UX ed è un obiettivo che dovrebbero perseguire tutti. Vorrei accedere alle risorse in massimo 2 secondi, nonostante per alcuni portali non sarà mai possibile (complici gli script della pubblicità che in molti casi devono aggiornarsi in real time compromettendo così i tempi di caricamento).

    Ma una volta raggiunta la velocità che si fa? Un editore velocissimo nella consegna delle risposte verso il client ha finito il proprio lavoro? Certo che no, la velocità è uno dei tasselli, uno dei requisiti basilari per poter poi lavorare a 360 gradi su tutti gli altri fattori 🙂

    Proprio perché stiamo parlando di imprenditori/editori lungimiranti bisogna integrare una strategia a 360 gradi.

  • La velocità non è ancora un fattore di posizionamento per Google Italia (non so perchè tutti continuano a pensare che Google Italia e Google Americano siano la stessa cosa quando persino Matt Cutts dice che sono completamente diversi) e Panda e Penguin sono presenti solo per alcune ricerche popolari (meno dell’1% per Penguin), quindi è possibilissimo posizionarsi vecchio stile per alcune parole chiavi ammesso che si è un minimo competenti con i vari tools etc.
    Poi lo stesso discorso vale anche per Google Internazionale, i filtri Penguin e Panda non si applicano a tutte le parole chiavi, detto da Matt Cutts stesso. Ogni parola chiave ha filtri diversi e quindi è necessaria una strategia diversa, basta guardare a come funziona l’algoritmo penguin per parole chiavi iper spammate internazionali.

    Purtroppo vedo che la gente segue la massa e ci sta questa propaganda content is the king, che è assolutamente vero per carità ma i fatti sono fatti, è possibile posizionare una pagina con 500 parole ma che riceve più link rispetto ad una di 2000 parole che ne riceve 0. Altri invece si concentrano su metriche come DA e si dimenticano che Google posiziona le singole pagine e non i domini e che non guarda metriche come DA/PA che possono essere facilmente manipolabili con alcuni trucchetti.

    Ora è vero che avere un vecchio dominio con una certà autorità ti da un certo boost iniziale ma fra una pagina con 0 inbound links e una con 20 inbound links Google darà sempre alla preferenza alla seconda, ovviamente 1 link da un sito di altà qualita varrà più di 20 di bassa qualità ma 20 di bassa qualità valgono più di 0! Alla fine è solo un algoritmo, ogni algoritmo ha il suo punto debole e può essere manipolato e in questo game viene ricompensato chi sà anche rischiare un po. Prima di penguin bastava una campagna Churn And Burn con anchor text heavy ed una pagina in 2 settimane massimo si posizionava in prima posizione, oggi ci si deve adattare utilizzano PBN o Guest Post e tempi di attesa non sono due settimane ma anche 2-3 mesi (soprattutto per i domini nuovi). Cambiano i metodi ma la SEO è sempre la stessa, backlinks is the king (per la seo) and content is the queen (pochissimo per la seo ma necessaria per convertire in clienti). Non dimentichiamoci che è alquanto difficile, anche con ottimi contenuti ottenere link editoriali do follow nel 2017, figuriamo con anchor text.

  • Il mio sentore è che la user experience farà passi da gigante tra i fattori di rank. Semplicemente perchè google ora è più preparato nel valutarla. E poi penso (e spero) che un fattore in calo sia l’importanza dei link, perchè è ormai chiaro anche a google che chi ha un buon bagaglio di link se lo è costruito artificialmente.

  • Ciao,
    la mia è in realtà una domanda che vi pongo: è possibile che i “fattori di ranking” siano non fissi ma “fluttuanti” (e cambino di importanza) a seconda della nicchia?
    Nel senso, ad esempio, che nella nicchia “news” il bounce rate abbia meno peso rispetto ai siti di una nicchia di approfondimento culturale/scientifico, o che nella nicchia dei siti di “ricette” sia più important avere un video esplicativo nell’articolo che non un testo lungo dettagliato del procedimento… ecc. ecc.
    Quindi, in realtà, non bisognerebbe parlare di “fattori di ranking per nicchia”?
    Grazie, ciao e buon lavoro a tutti! 🙂

  • La valutazione (inconsapevole) delle persone influenzerà il rank brain.
    Ogni (tipologia di) serp farà storia a se e avrà i suoi fattori di ranking.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Max Valle

Max Valle

Da oltre 20 anni, fornisco consulenze per aziende e professionisti, che vogliono sviluppare il loro business, 
aumentando i clienti, utilizzando le ultime tecnologie e nel pieno rispetto delle normative vigenti in materia.

Seguimi sui social

Iscriviti alla Newsletter

Main sponsor

Scroll to Top

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico. Condividiamo inoltre informazioni sul modo in cui utilizza il nostro sito con i nostri partner che si occupano di analisi dei dati web, pubblicità e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi. Acconsenta ai nostri cookie se continua ad utilizzare il nostro sito web. Per maggiori informazioni visualizza la Privacy & Cookie policy