Come l'elaborazione del linguaggio naturale cambia il modo in cui cerchi
Pubblicato: 2020-05-14Google si impegna a migliorare la pertinenza degli elenchi presentati nelle pagine dei risultati dei motori di ricerca (SERP) con ogni aggiornamento dell'algoritmo. Un recente aggiornamento delle SERP è Bidirectional Encoder Representations from Transformers (BERT) di Google, che utilizza l'elaborazione del linguaggio naturale. BERT è considerato uno dei cambiamenti più significativi introdotti da Google negli ultimi cinque anni, interessando direttamente una query di ricerca su 10.
Ha lo scopo di visualizzare risultati più pertinenti interpretando correttamente query di ricerca complesse e a coda lunga. In questo post, discuteremo cosa significa e come cambia il modo in cui cerchi.
Cos'è BERT?
È una tecnica basata su rete neurale per il pre-addestramento della PNL che consente a Google di identificare in modo più accurato il contesto delle parole in una determinata query di ricerca.
Ad esempio, considera le frasi "sei meno 10" e "un quarto meno sei", la stessa preposizione "a" ha un significato diverso in ciascuna frase, il che potrebbe non essere ovvio per i motori di ricerca. Tuttavia, qui è dove BERT diventa utile, in quanto può effettivamente fare la distinzione tra il contesto della preposizione nella prima frase rispetto a come viene usata nella seconda frase. Attraverso la comprensione del contesto, può fornire risultati più pertinenti.
Le reti neurali di algoritmi facilitano il riconoscimento dei modelli, mentre le reti neurali addestrate sui set di dati possono identificare i modelli. Le sue applicazioni tipiche includono il contenuto delle immagini, la previsione delle tendenze del mercato finanziario e persino il riconoscimento della scrittura a mano. Considerando che l'elaborazione del linguaggio naturale o PNL è una frazione dell'intelligenza artificiale (AI) che si occupa di linguistica.
- La PNL consente ai computer di capire come gli esseri umani comunicano naturalmente.
- Gli algoritmi di PNL consentono l'interpretazione, la comprensione e il riconoscimento del modello linguistico.
- I modelli di PNL evidenziano la grammatica e le parole per trovare un significato in infinite quantità di testo e parlato.
I progressi facilitati dalla PNL che gli utenti di Internet e le aziende online utilizzano ogni giorno includono strumenti di ascolto sociale, suggerimenti di parole e chatbot.
Cosa significa questo?
BERT è un algoritmo NLP che utilizza reti neurali per produrre modelli pre-addestrati. Questi modelli vengono addestrati utilizzando infinite quantità di dati disponibili sul web. I modelli pre-addestrati sono modelli di PNL generici che vengono ulteriormente perfezionati per eseguire compiti specifici di PNL. Nel novembre dello scorso anno, Google ha reso open source BERT, affermando di aver fornito risultati completi e pertinenti su 11 attività di PNL, incluso il set di dati di risposta alle domande di Stanford.
La bidirezionalità di BERT lo distingue dagli altri algoritmi, in quanto ciò gli consente di dare un contesto a una parola. Può farlo non solo considerando le parti della frase che portano a quella parola, ma anche prendendo in considerazione le parti che la seguono. La bidirezionalità consente ai motori di ricerca di comprendere il significato di una parola come "film" che ha un significato diverso se utilizzata in "film per finestre" rispetto a quando viene utilizzata insieme a "blockbuster".
Nella ricerca, BERT facilita la comprensione dei dettagli chiave di una query, soprattutto quando si tratta di query complesse, colloquiali o con preposizioni. Ad esempio, nella query "2021 Il viaggiatore indiano a Bali ha bisogno di un visto", la preposizione "a" suggerisce che il viaggiatore si sta recando dall'India a Bali. Cambiando la preposizione, potresti cambiare completamente la frase, che sarebbe come "2021 Il viaggiatore indiano di Bali ha bisogno di un visto" e potrebbe significare che i viaggiatori sono di Bali e hanno bisogno di un visto per l'India. BERT consente la comprensione della differenza contestuale tra le due frasi.
Qual è la differenza tra BERT e RankBrain?
RankBrain è stato il primo metodo AI di Google applicato alla ricerca. Funziona parallelamente agli algoritmi di ranking della ricerca organica e apporta modifiche ai risultati calcolati da tali algoritmi. RankBrain regola i risultati offerti dagli algoritmi in base alle query storiche.
RankBrain facilita inoltre a Google l'interpretazione delle query di ricerca in modo che possa visualizzare risultati che potrebbero non contenere le parole esatte della query. Ad esempio, quando cerchi "l'altezza del punto di riferimento a Dubai", ti mostrerà automaticamente le informazioni relative al Burj Khalifa.
D'altra parte, la componente bidirezionale del BERT lo fa funzionare in modo molto diverso. Laddove gli algoritmi tradizionali esaminano il contenuto della pagina per valutare la pertinenza, gli algoritmi NLP fanno un ulteriore passo avanti osservando il contenuto prima o dopo una parola per un contesto aggiuntivo. Poiché la comunicazione umana è solitamente complessa e stratificata, rende essenziale questo avanzamento nell'elaborazione del linguaggio naturale.
Insieme, BERT e RankBrain sono utilizzati da Google per elaborare e comprendere le query. BERT non è un sostituto di RankBrain ma può essere applicato insieme ad altri algoritmi di Google o in combinazione con RankBrain, a seconda del termine di ricerca.
Miglioramento della ricerca in più lingue
Con la capacità di prendere ciò che abbiamo imparato da una lingua e applicarlo a un'altra, BERT viene utilizzato per rendere i risultati di ricerca più pertinenti per gli utenti di Internet in tutto il mondo. Ad esempio, quello che abbiamo imparato dalle lingue più diffuse sul web, come l'inglese, viene poi applicato ad altre lingue. In tal modo, offrendo risultati migliori in altre lingue in cui anche le persone effettuano ricerche. Inoltre, il modello BERT migliora anche la pertinenza dei frammenti in primo piano in tutti i paesi e le lingue.
In che modo BERT influisce sulla tua attività?
BERT influisce anche sull'Assistente Google attivandolo per offrire snippet in primo piano o risultati web influenzati dall'aggiornamento BERT. La tecnologia NLP come BERT migliora la comprensione della macchina e questa innovazione è senza dubbio vantaggiosa per molti utenti e aziende online. Tuttavia, per quanto riguarda la SEO, i principi rimangono gli stessi. Se hai le migliori pratiche SEO radicate nella tua strategia di marketing, allora puoi essere certo del tuo successo sul web. I siti Web che producono costantemente contenuti di alta qualità, pertinenti e aggiornati trarranno il massimo vantaggio da questo aggiornamento dell'algoritmo.
Scrivere contenuti di qualità superiore basati sulla ricerca di parole chiave è un esercizio che rimarrà un fattore di ranking prioritario nei motori di ricerca. I proprietari di siti Web che si concentrano sui propri utenti che ottengono i contenuti informativi e accurati che si aspettano, finiscono con un buon posizionamento nella SERP. Il monitoraggio delle prestazioni delle pagine e la creazione di ottimi contenuti aiuterà i siti Web a rimanere pertinenti.
La PNL risolve l'intento di ricerca?
Con BERT, indipendentemente dalla lingua o dalle parole utilizzate nella query, le possibilità che Google ottenga i risultati corretti sono aumentate ma non sono ancora del 100%. Ad esempio, anche con BERT, chiunque cerchi "quale stato è a sud del Nebraska", è probabile che ottenga risultati per "South Nebraska" invece di Kansas, che è probabilmente la risposta che l'utente sta cercando.
Aiutare le macchine a comprendere il linguaggio rimane uno sforzo continuo e derivare un significato definito da una determinata domanda è un processo complesso. Quando Google applica la PNL a un elenco di parole chiave chiave, i primi risultati visualizzati potrebbero non contenere alcune o anche solo una delle parole chiave richieste, rendendo tali risultati irrilevanti. Con BERT, Google ha migliorato il suo gioco offrendo un aggiornamento sofisticato al suo algoritmo, ma la ricerca rimane un problema irrisolto a causa della natura complessa del linguaggio umano.