Cum procesarea limbajului natural schimbă modul în care căutați
Publicat: 2020-05-14Google se străduiește să sporească relevanța listărilor prezentate în paginile cu rezultate ale motorului de căutare (SERP) cu fiecare actualizare a algoritmului. O actualizare recentă a SERP-urilor este Bidirectional Encoder Representations from Transformers (BERT), de la Google, care utilizează procesarea limbajului natural. BERT este considerată una dintre cele mai semnificative modificări introduse de Google în ultimii cinci ani — afectând direct una din 10 interogări de căutare.
Acesta își propune să afișeze rezultate mai relevante prin interpretarea corectă a interogărilor complexe de căutare cu coadă lungă. În această postare, vom discuta ce înseamnă acest lucru și cum schimbă modul în care căutați.
Ce este BERT?
Este o tehnică bazată pe rețea neuronală pentru pre-formarea NLP, care permite Google să identifice mai precis contextul cuvintelor dintr-o anumită interogare de căutare.
De exemplu, luați în considerare expresiile „șase la 10” și „un sfert la șase”, aceeași prepoziție „la” are un înțeles diferit în fiecare frază, ceea ce poate să nu fie evident pentru motoarele de căutare. Cu toate acestea, aici este locul în care BERT devine util, deoarece poate face în mod eficient distincția între contextul prepoziției din prima frază în comparație cu modul în care este folosită în a doua frază. Prin înțelegerea contextului, acesta poate oferi rezultate mai relevante.
Rețelele neuronale de algoritmi facilitează recunoașterea modelelor, în timp ce rețelele neuronale antrenate pe seturi de date pot identifica modele. Aplicațiile sale tipice includ conținut de imagine, prezicerea tendințelor pieței financiare și chiar recunoașterea scrisului de mână. În timp ce procesarea limbajului natural sau NLP este o fracțiune a inteligenței artificiale (AI) care se ocupă de lingvistică.
- NLP permite computerelor să înțeleagă modul în care oamenii comunică în mod natural.
- Algoritmii NLP permit interpretarea, înțelegerea și recunoașterea modelelor de limbaj.
- Modelele NLP evidențiază gramatica și cuvintele pentru a găsi sens în cantități nesfârșite de text și vorbire.
Progresele facilitate de NLP pe care utilizatorii de internet și afacerile online le folosesc zilnic includ instrumente de ascultare socială, sugestii de cuvinte și chatbot.
Ce înseamnă acest lucru?
BERT este un algoritm NLP care utilizează rețele neuronale pentru a produce modele pre-antrenate. Aceste modele sunt antrenate folosind cantități nesfârșite de date disponibile pe web. Modelele pre-instruite sunt modele NLP generice care sunt rafinate în continuare pentru a îndeplini sarcini specifice NLP. În noiembrie anul trecut, Google a folosit BERT în sursă deschisă, susținând că a furnizat rezultate complete și relevante pentru 11 sarcini NLP, inclusiv setul de date de răspuns la întrebările Stanford.
Bidirecționalitatea lui BERT îl diferențiază de alți algoritmi, deoarece acest lucru îi permite abilitatea de a da context unui cuvânt. Poate face acest lucru nu doar luând în considerare părțile propoziției care conduc la acel cuvânt, ci și luând în considerare părțile care îl urmează. Bidirecționalitatea permite motoarelor de căutare să înțeleagă semnificația unui cuvânt, cum ar fi „film”, care are un înțeles diferit atunci când este folosit în „film pentru fereastră”, spre deosebire de când este utilizat alături de „blockbuster”.
În căutare, BERT facilitează înțelegerea detaliilor cheie ale unei interogări, mai ales atunci când vine vorba de interogări complexe, conversaționale sau cele cu prepoziții în ea. De exemplu, în interogarea „2021 călătorul indian în Bali are nevoie de viză”, prepoziția „la” sugerează că călătorul merge din India în Bali. Schimbând prepoziția, ați putea schimba complet propoziția, care s-ar citi ca „2021 călătorul indian din Bali are nevoie de viză” și ar putea însemna că călătorii sunt din Bali și au nevoie de viză pentru India. BERT permite înțelegerea diferenței contextuale dintre cele două propoziții.
Care este diferența dintre BERT și RankBrain?
RankBrain a fost prima metodă AI de la Google aplicată în căutare. Funcționează în paralel cu algoritmii de clasare a căutării organice și efectuează ajustări la rezultatele calculate de acei algoritmi. RankBrain ajustează rezultatele oferite de algoritmi pe baza interogărilor istorice.
RankBrain facilitează, de asemenea, Google să interpreteze interogările de căutare, astfel încât să poată afișa rezultate care ar putea să nu aibă cuvintele exacte ca interogare. De exemplu, când căutați „înălțimea punctului de reper din Dubai,” vă va afișa automat informații legate de Burj Khalifa.
Pe de altă parte, componenta bidirecțională a BERT îl face să funcționeze într-un mod foarte diferit. În cazul în care algoritmii tradiționali se uită la conținutul din pagină pentru a evalua relevanța, algoritmii NLP fac un pas mai departe, analizând conținutul înainte sau după un cuvânt pentru context suplimentar. Deoarece comunicarea umană este, de obicei, complexă și stratificată, face ca acest progres în procesarea limbajului natural să fie esențial.
Împreună, BERT și RankBrain sunt utilizate de Google pentru a procesa și înțelege interogările. BERT nu este un substitut pentru RankBrain, dar poate fi aplicat alături de alți algoritmi Google sau în combinație cu RankBrain, în funcție de termenul de căutare.
Îmbunătățirea căutării în mai multe limbi
Cu capacitatea de a prelua ceea ce am învățat dintr-o limbă și de a le aplica în alta, BERT este utilizat pentru a face rezultatele căutării mai relevante pentru utilizatorii de internet din întreaga lume. De exemplu, ceea ce am învățat din cele mai utilizate limbi de pe web, cum ar fi engleza, este apoi aplicat altor limbi. Astfel, oferind rezultate îmbunătățite și în alte limbi în care oamenii caută. În plus, modelul BERT sporește, de asemenea, relevanța fragmentelor prezentate în diferite țări și limbi.
Cum vă afectează BERT afacerea?
De asemenea, BERT afectează Asistentul Google prin declanșarea acestuia să ofere fragmente prezentate sau rezultate web influențate de actualizarea BERT. Tehnologia NLP precum BERT îmbunătățește înțelegerea mașinii și această inovație este, fără îndoială, benefică pentru mulți utilizatori și companii online. Cu toate acestea, în ceea ce privește SEO, principiile rămân aceleași. Dacă aveți cele mai bune practici SEO înrădăcinate în strategia dvs. de marketing, atunci puteți fi sigur de succesul dvs. web. Site-urile web care produc conținut de înaltă calitate, relevant și proaspăt în mod constant vor beneficia cel mai mult de pe urma acestei actualizări de algoritm.
Scrierea de conținut superior bazat pe cercetarea cuvintelor cheie este un exercițiu care va rămâne un factor de clasare prioritizat în motoarele de căutare. Proprietarii de site-uri care se concentrează pe utilizatorii lor să obțină conținutul informativ și precis pe care îl așteaptă, ajung să obțină o clasare bună pe SERP. Monitorizarea performanței paginilor și crearea de conținut excelent va ajuta site-urile web să rămână relevante.
NLP rezolvă intenția de căutare?
Cu BERT, indiferent de limba sau cuvintele folosite în interogare, șansele ca Google să obțină rezultatele corecte au devenit mai mari, dar încă nu sunt de 100%. De exemplu, chiar și cu BERT, oricine caută „ce stat este la sud de Nebraska”, este probabil să obțină rezultate pentru „South Nebraska” în loc de Kansas, care este probabil răspunsul pe care îl caută utilizatorul.
A ajuta mașinile să înțeleagă limbajul rămâne un efort continuu și obținerea unui sens definit de la orice interogare dată este un proces complex. Când Google aplică NLP unei liste de cuvinte cheie cheie, este posibil ca rezultatele de top afișate să nu conțină unele sau chiar doar unul dintre cuvintele cheie necesare, ceea ce face ca aceste rezultate să fie irelevante. Cu BERT, Google și-a îmbunătățit jocul oferind o actualizare sofisticată a algoritmului său, dar căutarea rămâne o problemă nerezolvată din cauza naturii complexe a limbajului uman.