Comment le traitement du langage naturel change votre façon de rechercher
Publié: 2020-05-14Google s'efforce d'améliorer la pertinence des listes présentées dans les pages de résultats des moteurs de recherche (SERP) à chaque mise à jour de l'algorithme. Une mise à jour récente des SERP est les représentations d'encodeurs bidirectionnels de Google (BERT), qui utilisent le traitement du langage naturel. BERT est considéré comme l'un des changements les plus importants introduits par Google au cours des cinq dernières années, affectant directement une requête de recherche sur 10.
Il vise à afficher des résultats plus pertinents en interprétant correctement les requêtes de recherche complexes et à longue traîne. Dans cet article, nous discuterons de ce que cela signifie et comment cela change votre façon de rechercher.
Qu'est-ce que le BERT ?
Il s'agit d'une technique basée sur un réseau de neurones pour la pré-formation PNL qui permet à Google d'identifier plus précisément le contexte des mots dans une requête de recherche donnée.
Par exemple, considérez les expressions "six à 10" et "six heures moins le quart", la même préposition "à" a une signification différente dans chaque expression, ce qui peut ne pas être évident pour les moteurs de recherche. Cependant, c'est ici que BERT devient utile, car il peut effectivement faire la distinction entre le contexte de la préposition dans la première phrase et la façon dont elle est utilisée dans la deuxième phrase. Grâce à la compréhension du contexte, il peut fournir des résultats plus pertinents.
Les réseaux neuronaux d'algorithmes facilitent la reconnaissance des modèles, tandis que les réseaux neuronaux formés sur des ensembles de données peuvent identifier des modèles. Ses applications typiques incluent le contenu d'image, la prévision des tendances des marchés financiers et même la reconnaissance de l'écriture manuscrite. Alors que le traitement du langage naturel ou NLP est une fraction de l'intelligence artificielle (IA) qui s'occupe de la linguistique.
- La PNL permet aux ordinateurs de comprendre comment les humains communiquent naturellement.
- Les algorithmes NLP permettent l'interprétation, la compréhension et la reconnaissance des modèles de langage.
- Les modèles NLP mettent en évidence la grammaire et les mots pour trouver un sens dans des quantités infinies de texte et de parole.
Les avancées facilitées par la PNL que les internautes et les entreprises en ligne utilisent quotidiennement incluent les outils d'écoute sociale, les suggestions de mots et les chatbots.
Qu'est-ce que cela signifie?
BERT est un algorithme NLP qui utilise des réseaux de neurones pour produire des modèles pré-formés. Ces modèles sont entraînés à l'aide de quantités infinies de données disponibles sur le Web. Les modèles pré-entraînés sont des modèles NLP génériques qui sont encore affinés pour effectuer des tâches NLP spécifiques. En novembre de l'année dernière, Google a ouvert le BERT, affirmant qu'il fournissait des résultats complets et pertinents sur 11 tâches NLP, y compris l'ensemble de données de réponse aux questions de Stanford.
La bidirectionnalité de BERT le distingue des autres algorithmes, car cela lui permet de donner un contexte à un mot. Il peut le faire non seulement en considérant les parties de la phrase menant à ce mot, mais également en tenant compte des parties qui le suivent. La bidirectionnalité permet aux moteurs de recherche de comprendre la signification d'un mot tel que "film" qui a une signification différente lorsqu'il est utilisé dans "film de fenêtre" par opposition à lorsqu'il est utilisé à côté de "blockbuster".
Dans la recherche, BERT facilite la compréhension des détails clés d'une requête, en particulier lorsqu'il s'agit de requêtes conversationnelles complexes ou de celles contenant des prépositions. Par exemple, dans la requête "2021 Un voyageur indien à Bali a besoin d'un visa", la préposition "à" suggère que le voyageur va de l'Inde à Bali. En changeant la préposition, vous pourriez changer complètement la phrase, qui se lirait comme "2021 Le voyageur indien de Bali a besoin d'un visa", et pourrait signifier que les voyageurs viennent de Bali et ont besoin d'un visa pour l'Inde. BERT permet de comprendre la différence contextuelle entre les deux phrases.
Quelle est la différence entre BERT et RankBrain ?
RankBrain a été la première méthode d'IA de Google appliquée à la recherche. Il fonctionne parallèlement aux algorithmes de classement de recherche organique et apporte des ajustements aux résultats calculés par ces algorithmes. RankBrain ajuste les résultats offerts par les algorithmes en fonction des requêtes historiques.
RankBrain permet également à Google d'interpréter les requêtes de recherche afin qu'il puisse afficher des résultats qui peuvent ne pas contenir les mots exacts de la requête. Par exemple, lorsque vous recherchez "la hauteur du point de repère à Dubaï", il vous montrera automatiquement des informations relatives à Burj Khalifa.
D'autre part, le composant bidirectionnel du BERT le fait fonctionner d'une manière très différente. Là où les algorithmes traditionnels examinent le contenu de la page pour évaluer la pertinence, les algorithmes NLP vont encore plus loin en examinant le contenu avant ou après un mot pour un contexte supplémentaire. Étant donné que la communication humaine est généralement complexe et multicouche, cette avancée dans le traitement du langage naturel est essentielle.
Ensemble, BERT et RankBrain sont utilisés par Google pour traiter et comprendre les requêtes. BERT ne remplace pas RankBrain mais peut être appliqué avec d'autres algorithmes Google ou en combinaison avec RankBrain, selon le terme de recherche.
Améliorer la recherche dans plus de langues
Avec la possibilité de prendre ce que nous avons appris d'une langue et de l'appliquer à une autre, BERT est utilisé pour rendre les résultats de recherche plus pertinents pour les internautes du monde entier. Par exemple, ce que nous avons appris des langues les plus utilisées sur le Web, comme l'anglais, est ensuite appliqué à d'autres langues. Ainsi, offrant des résultats améliorés dans d'autres langues que les gens recherchent également. De plus, le modèle BERT améliore également la pertinence des extraits de code à travers les pays et les langues.
Comment BERT affecte-t-il votre entreprise ?
BERT a également un impact sur Google Assistant en le déclenchant pour proposer des extraits de code ou des résultats Web influencés par la mise à jour BERT. La technologie NLP comme BERT améliore la compréhension de la machine et cette innovation est sans aucun doute bénéfique pour de nombreux utilisateurs et entreprises en ligne. Cependant, en ce qui concerne le référencement, les principes restent les mêmes. Si vous avez intégré les meilleures pratiques de référencement dans votre stratégie marketing, vous pouvez être assuré de votre succès sur le Web. Les sites Web qui produisent constamment du contenu de haute qualité, pertinent et frais bénéficieront le plus de cette mise à jour de l'algorithme.
Rédiger un contenu de qualité supérieure basé sur la recherche de mots-clés est un exercice qui restera un facteur de classement prioritaire dans les moteurs de recherche. Les propriétaires de sites Web qui se concentrent sur l'obtention par leurs utilisateurs du contenu informatif et précis qu'ils attendent se retrouvent avec un bon classement sur le SERP. Surveiller les performances des pages, tout en créant un excellent contenu, aidera les sites Web à rester pertinents.
La PNL résout-elle l'intention de recherche ?
Avec BERT, quels que soient la langue ou les mots utilisés dans la requête, les chances que Google obtienne les bons résultats sont devenues plus élevées, mais ne sont toujours pas de 100 %. Par exemple, même avec BERT, toute personne recherchant "quel état est au sud du Nebraska", elle obtiendra probablement des résultats pour "South Nebraska" au lieu de Kansas, ce qui est probablement la réponse recherchée par l'utilisateur.
Aider les machines à comprendre le langage reste une entreprise permanente et tirer un sens précis d'une requête donnée est un processus complexe. Lorsque Google applique le NLP à une liste de mots-clés clés, les meilleurs résultats affichés peuvent ne pas contenir certains ou même un seul des mots-clés requis, ce qui rend ces résultats non pertinents. Avec BERT, Google a amélioré son jeu en proposant une mise à jour sophistiquée de son algorithme, mais la recherche reste un problème non résolu en raison de la nature complexe du langage humain.