Google BERT: l’ultimo arrivato in casa Google

Tanti ne parlano ma nessuno ha ancora capito esattamente che cos’è: BERT, il nuovo algoritmo di Google, approdato in Italia il 9 dicembre 2019.

Se siete sviluppatori, web master, SEO specialist, o se banalmente vi occupate della SEO del vostro sito web, avrete sicuramente sentito parlare di Google BERT. Ma che cos’è e a che cosa serve di preciso questo nuovo aggiornamento?

Google BERT, acronimo che sta per Bidirectional Encoder Representations from Trasformers, è un’integrazione all’aggiornamento RankBrain di qualche anno fa, che si avvale della tecnologia del machine learning (una branca dell’intelligenza artificiale in grado di apprendere nel tempo attraverso un modello di pre-training) per offrire agli utenti di Google risultati sempre più pertinenti alle loro ricerche. Come?

BERT, in pratica, è un algoritmo NLP (Natural Language Processing) che mira ad elaborare le informazioni scritte in un linguaggio “naturale”. Un meccanismo sicuramente non facile vista la complessità intrinseca della lingua umano. Per ovviare a questo problema, o almeno in parte, Big G ha pensato di applicare un modello bidirezionale Trasformer per la modellazione del linguaggio. In parole povere il nuovo update permette ai motori di ricerca di ricostruire la query fornita dagli utenti e comprendere al meglio il contesto e tutte le sue sfumature a livello semantico.

Come funziona esattamente Google BERT?

A livello tecnico BERT si basa sull’applicazione di due differenti modelli di pre-training: il Mask Language Model (MLM) e il Next Sentence Prediction (NSP). Il primo permette a BERT di individuare le parole mancanti all’interno di una frase, sulla base del contesto fornito. Il secondo invece, l’NSP, consente a BERT di riconoscere se una frase è collegata alla precedente. In parole povere, data una coppia di frasi, l’algoritmo è in grado di determinare se appartengono al medesimo contesto.

Come cambia la SEO con Google BERT?

Il nuovo algoritmo di Google ha sicuramente creato scompiglio tra tutti i copywriter e SEO expert (me compresa) che stanno ancora cercando di capire come effettivamente BERT incida sul loro lavoro.

In realtà, i portavoce ufficiali di Google hanno assicurato che non è necessario stravolgere i testi al fine di ottimizzarli. Questo perché, come abbiamo spiegato nel precedente paragrafo, il nuovo update mira a favorire un linguaggio il più possibile “naturale”, andando quindi ad eliminare tutti quei tecnicismi presenti in un testo, dovuti puramente da un discorso di keywords. La nuova tecnologia tenta, infatti, di comprendere il linguaggio naturale delle persone e restituire dei risultati in linea con le query inserite, a prescindere dall’uso e dal posizionamento delle keyword all’interno del testo. Una delle tecniche che quindi possiamo mettere in atto è quella di privilegiare, a discapito delle singole parole chiave, le cosiddette long tail keywords e di prestare una maggiore attenzione ad un linguaggio sempre più naturale e scorrevole.

Per maggiori dettagli, o curiosità, sul nuovo algoritmo BERT di Google potete dare un’occhiata al suo blog officiale. Per i più smanettoni lascio il link al codice sorgente.