Google sta investendo sempre più soldi e risorse nell’intelligenza artificiale e nel machine learning, con l’obiettivo di comprendere sempre meglio le query degli utenti. Le ricerche sul motore, d’altra parte, vengono effettuate sempre più con linguaggio naturale e sempre meno utilizzando solo parole chiave.

Il 25 Ottobre 2019 ha annunciato ufficialmente sul suo blog “il più grande passo avanti negli ultimi 5 anni e uno dei più grandi nella storia della Search”: parliamo di Google BERT.

Cosa è Google BERT?

È il nome dato all’ultimo update del motore di ricerca, che prosegue il percorso iniziato da Hummingbird nel 2013 e continuato con RankBrain nel 2015.

BERT è pensato per rispondere a query particolarmente complesse e conversazionali, in forte aumento grazie agli smartphone e ai dispositivi come Amazon Echo o Google Home.

BERT riesce a comprendere meglio le long tail query e l’intento di ricerca dell’utente perché non analizza le singole parole della frase, una per una, ma considera l’intero contesto e quindi le relazioni fra tutte le parole, osservando quelle che precedono e quelle che seguono.

È l’acronimo di qualcosa?

Sì, sta per “Bidirectional Encoder Representations from Transformers”, una tecnologia che consentirebbe a chiunque di addestrare un proprio sistema di domande-risposte.

Mi pare di averne già sentito parlare tempo fa…

Vero! Il primo post su BERT venne pubblicato il 2 Novembre 2018 su Google AI Blog, ma allora si parlava esclusivamente di una tecnologia/software open source: oggi si parla invece di un update algoritmico.

Quale sarà il suo impatto?

BERT impatterà su circa il 10% delle ricerche effettuate negli USA in lingua inglese, e successivamente andrà a colpire altre lingue/nazioni.

Quando verrà rilasciato in Italia?

Dopo il lancio negli USA (per la lingua inglese), il 9 dicembre 2019 BERT è stato rilasciato in oltre 70 lingue, fra cui l’italiano.

Puoi farmi qualche esempio?

BERT cerca di comprendere le sfumature e il contesto delle query, restituendo di conseguenza risultati più pertinenti.

Nel primo caso, il sistema riesce a comprendere perfettamente il concetto di “to” che prima non capiva (ora capisce che si tratta di un brasiliano che viaggia verso gli USA, mentre prima poteva confonderlo con uno statunitense che viaggia verso il Brasile):

Google BERT - primo esempio

In questo secondo caso, capisce che “stand” significa “stare in piedi”, mentre prima l’algoritmo lo interpretava come “stand-alone” (travisando il significato della query):

Google BERT - secondo esempio

Nel terzo capisce che “for someone” è una parte importante della query (cosa che in precedenza non comprendeva):

Google BERT - terzo esempio

Infine qui vediamo BERT alle prese con un feature snippet, dove se prima veniva dato troppo peso al termine “curb” e veniva ignorata la parola “no”, ora la risposta è corretta:

Google BERT - feature snippet

È possibile ottimizzare un sito per Google BERT?

La risposta ce la dà direttamente il “portavoce” di Google, Danny Sullivan:

Non c’è nulla da ottimizzare per BERT, né qualcosa che dovresti ripensare. I fondamentali del premiare ottimi contenuti, per noi, rimangono gli stessi.

BERT non cambia i fondamentali di ciò che Google ha detto per lungo tempo, ovvero scrivere contenuti per gli utenti.

Nonostante ciò è probabile che usciranno articoli e guide su “come fare SEO per Google BERT”, come uscirono per tutti i core update e gli aggiornamenti piccoli o grandi del motore di ricerca.

Personalmente mi sento solo di dire che se BERT va verso una miglior comprensione del linguaggio naturale, con tutte le sue sfumature, sarà sempre meno utile produrre contenuti che sembrano scritti da una macchina per una macchina: scrivi pensando più a soddisfare l’intento dell’utente (il famoso search intent) e molto meno quello dei bot, e piacerai sia a Google che ai tuoi lettori.