Como o processamento de linguagem natural muda a maneira como você pesquisa

Publicados: 2020-05-14

O Google se esforça para aumentar a relevância das listagens apresentadas nas páginas de resultados do mecanismo de pesquisa (SERPs) a cada atualização de algoritmo. Uma atualização recente para os SERPs são as representações de codificador bidirecional de transformadores (BERT) do Google, que utiliza processamento de linguagem natural. O BERT é considerado uma das mudanças mais significativas introduzidas pelo Google nos últimos cinco anos — afetando diretamente uma em cada 10 consultas de pesquisa.

Ele visa exibir resultados mais relevantes, interpretando corretamente consultas de pesquisa complexas e de cauda longa. Neste post, discutiremos o que isso significa e como isso muda a maneira como você pesquisa.

O que é BERT?

É uma técnica baseada em rede neural para pré-treinamento de NLP que permite ao Google identificar o contexto das palavras em uma determinada consulta de pesquisa com mais precisão.

Por exemplo, considere as frases “seis para 10” e “um quarto para as seis”, a mesma preposição “para” tem um significado diferente em cada frase, o que pode não ser óbvio para os mecanismos de busca. No entanto, é aqui que o BERT se torna útil, pois pode efetivamente fazer a distinção entre o contexto da preposição na primeira frase e como ela é usada na segunda frase. Através da compreensão do contexto, pode fornecer resultados mais relevantes.

As redes neurais de algoritmos facilitam o reconhecimento de padrões, enquanto as redes neurais treinadas em conjuntos de dados podem identificar padrões. Suas aplicações típicas incluem conteúdo de imagem, previsão de tendências do mercado financeiro e até reconhecimento de caligrafia. Enquanto o processamento de linguagem natural ou PNL é uma fração da inteligência artificial (IA) que lida com a linguística.

  • A PNL permite que os computadores entendam como os humanos se comunicam naturalmente.
  • Os algoritmos de PNL permitem interpretação, compreensão e reconhecimento de padrões de linguagem.
  • Os modelos de PNL destacam a gramática e as palavras para encontrar significado em quantidades infinitas de texto e fala.

Os avanços facilitados pela PNL que os usuários da Internet e as empresas on-line usam todos os dias incluem ferramentas de escuta social, sugestões de palavras e chatbots.

O que isto significa?

BERT é um algoritmo NLP que utiliza redes neurais para produzir modelos pré-treinados. Esses modelos são treinados usando quantidades infinitas de dados disponíveis na web. Modelos pré-treinados são modelos genéricos de PNL que são refinados para executar tarefas específicas de PNL. Em novembro do ano passado, o Google abriu o código do BERT, alegando que fornecia resultados completos e relevantes em 11 tarefas de PNL, incluindo o conjunto de dados de resposta a perguntas de Stanford.

A bidirecionalidade do BERT o diferencia de outros algoritmos, pois permite que ele dê contexto a uma palavra. Ele pode fazer isso não apenas considerando as partes da frase que levam a essa palavra, mas também levando em consideração as partes que a seguem. A bidirecionalidade permite que os mecanismos de pesquisa entendam o significado de uma palavra como “filme”, que tem um significado diferente quando usado em “filme de janela” em oposição a quando usado ao lado de “blockbuster”.

Na pesquisa, o BERT facilita a compreensão dos principais detalhes de uma consulta, especialmente quando se trata de consultas complexas, conversacionais ou com preposições. Por exemplo, na consulta “2021 viajante indiano para Bali precisa de visto”, a preposição “para” sugere que o viajante está indo da Índia para Bali. Ao alterar a preposição, você pode alterar a frase completamente, que seria lida como “2021 viajante indiano de Bali precisa de visto” e pode significar que os viajantes são de Bali e precisam de visto para a Índia. O BERT permite entender a diferença contextual entre as duas sentenças.

Qual é a diferença entre BERT e RankBrain?

RankBrain foi o primeiro método de IA do Google aplicado em buscas. Ele é executado paralelamente aos algoritmos de classificação de pesquisa orgânica e faz ajustes nos resultados calculados por esses algoritmos. O RankBrain ajusta os resultados oferecidos pelos algoritmos com base em consultas históricas.

O RankBrain também facilita o Google a interpretar as consultas de pesquisa para que ele possa exibir resultados que podem não ter as palavras exatas da consulta. Por exemplo, ao procurar “a altura do marco em Dubai”, ele automaticamente mostrará informações relacionadas ao Burj Khalifa.

Por outro lado, o componente bidirecional do BERT faz com que ele opere de maneira bem diferente. Onde os algoritmos tradicionais analisam o conteúdo da página para avaliar a relevância, os algoritmos de NLP vão além, observando o conteúdo antes ou depois de uma palavra para contexto adicional. Como a comunicação humana geralmente é complexa e em camadas, esse avanço no processamento da linguagem natural é essencial.

Juntos, BERT e RankBrain são utilizados pelo Google para processar e entender consultas. O BERT não substitui o RankBrain, mas pode ser aplicado juntamente com outros algoritmos do Google ou em combinação com o RankBrain, dependendo do termo de pesquisa.

Melhorando a pesquisa em mais idiomas

Com a capacidade de pegar o que aprendemos de um idioma e aplicá-lo a outro, o BERT é utilizado para tornar os resultados de pesquisa mais relevantes para usuários da Internet em todo o mundo. Por exemplo, o que aprendemos com os idiomas mais usados ​​na web, como o inglês, é aplicado a outros idiomas. Assim, oferecendo melhores resultados em outros idiomas que as pessoas estão pesquisando também. Além disso, o modelo BERT também aumenta a relevância dos snippets em destaque entre países e idiomas.

Como o BERT afeta o seu negócio?

O BERT também afeta o Google Assistant ao acioná-lo para oferecer snippets em destaque ou resultados da web influenciados pela atualização do BERT. A tecnologia NLP, como o BERT, melhora a compreensão da máquina e essa inovação é, sem dúvida, benéfica para muitos usuários e empresas online. No entanto, no que diz respeito ao SEO, os princípios permanecem os mesmos. Se você tiver as melhores práticas de SEO arraigadas em sua estratégia de marketing, poderá ter certeza de seu sucesso na web. Sites que produzem conteúdo novo, relevante e de alta qualidade de forma consistente serão os que mais se beneficiarão dessa atualização de algoritmo.

Escrever conteúdo superior com base na pesquisa de palavras-chave é um exercício que continuará sendo um fator de classificação prioritário nos mecanismos de pesquisa. Os proprietários de sites que se concentram em que seus usuários obtenham o conteúdo informativo e preciso que esperam, acabam com uma boa classificação no SERP. Monitorar o desempenho das páginas, enquanto cria um ótimo conteúdo, ajudará os sites a permanecerem relevantes.

A PNL resolve a intenção de busca?

Com o BERT, independentemente do idioma ou das palavras usadas na consulta, as chances de o Google acertar os resultados aumentam, mas ainda não são 100%. Por exemplo, mesmo com o BERT, qualquer pessoa que pesquisar “qual estado fica ao sul de Nebraska” provavelmente obterá resultados para “South Nebraska” em vez de Kansas, que provavelmente é a resposta que o usuário está procurando.

Ajudar as máquinas a entender a linguagem continua sendo um esforço contínuo e derivar um significado definido de qualquer consulta é um processo complexo. Quando o Google aplica o NLP a uma lista de palavras-chave-chave, os principais resultados exibidos podem não conter algumas ou apenas uma das palavras-chave necessárias, tornando esses resultados irrelevantes. Com o BERT, o Google melhorou seu jogo oferecendo uma atualização sofisticada para seu algoritmo, mas a busca continua sendo um problema sem solução devido à natureza complexa da linguagem humana.