自然言語処理が検索方法をどのように変えるか
公開: 2020-05-14Google は、アルゴリズムの更新ごとに、検索エンジンの結果ページ (SERP) に表示されるリストの関連性を高めるよう努めています。 SERP に対する最近の更新は、自然言語処理を利用する Google の Bidirectional Encoder Representations from Transformers (BERT) です。 BERT は、Google が過去 5 年間に導入した最も重要な変更の 1 つと考えられており、検索クエリの 10 分の 1 に直接影響を与えています。
複雑でロングテールの検索クエリを正しく解釈することで、より関連性の高い結果を表示することを目的としています。 この投稿では、これが何を意味し、検索方法がどのように変化するかについて説明します。
バートとは?
これは、Google が特定の検索クエリ内の単語のコンテキストをより正確に識別できるようにする NLP 事前トレーニング用のニューラル ネットワーク ベースの手法です。
たとえば、「six to 10」と「a Quarter to six」というフレーズを考えてみましょう。同じ前置詞「to」がそれぞれのフレーズで異なる意味を持ち、検索エンジンにとっては明らかではない可能性があります。 ただし、ここで BERT が役立ちます。最初のフレーズの前置詞の文脈と、2 番目のフレーズでの前置詞の使用方法を効果的に区別できるからです。 コンテキストを理解することで、より関連性の高い結果を提供できます。
アルゴリズムのニューラル ネットワークはパターン認識を容易にしますが、データ セットでトレーニングされたニューラル ネットワークはパターンを識別できます。 その典型的なアプリケーションには、画像コンテンツ、金融市場のトレンドの予測、さらには手書きの認識が含まれます。 一方、自然言語処理または NLP は、言語学を扱う人工知能 (AI) の一部です。
- NLP により、コンピューターは人間が自然にコミュニケーションする方法を理解できるようになります。
- NLP アルゴリズムは、解釈、理解、および言語パターンの認識を可能にします。
- NLP モデルは、無限の量のテキストと音声から意味を見つけるために、文法と単語を強調します。
インターネット ユーザーやオンライン ビジネスが毎日利用する NLP によって促進される進歩には、ソーシャル リスニング ツール、単語の提案、チャットボットなどがあります。
これは何を意味するのでしょうか?
BERT は、ニューラル ネットワークを利用して事前トレーニング済みのモデルを生成する NLP アルゴリズムです。 これらのモデルは、Web 上で入手可能な膨大な量のデータを使用してトレーニングされます。 事前トレーニング済みモデルは、特定の NLP タスクを実行するためにさらに洗練された汎用 NLP モデルです。 昨年 11 月、Google は BERT をオープンソース化し、スタンフォードの質問応答データセットを含む 11 の NLP タスクで完全かつ関連性のある結果を提供したと主張しました。
BERT の双方向性は、単語にコンテキストを与える機能を可能にするため、他のアルゴリズムとは一線を画しています。 その単語につながる文の部分を考慮するだけでなく、それに続く部分も考慮に入れることで、これを行うことができます。 双方向性により、検索エンジンは「フィルム」などの単語の意味を理解できますが、「ブロックバスター」と一緒に使用される場合とは対照的に、「ウィンドウ フィルム」で使用される場合は異なる意味を持ちます。
検索では、BERT はクエリの重要な詳細の理解を容易にします。特に、複雑な会話形式のクエリや前置詞を含むクエリの場合に役立ちます。 たとえば、「2021 年にバリ島を訪れるインド人旅行者はビザが必要です」というクエリでは、前置詞「to」は旅行者がインドからバリ島に行くことを示唆しています。 前置詞を変更することで、「2021 年バリ島からのインド人旅行者はビザが必要です」のように文を完全に変えることができ、旅行者はバリ島出身で、インドへのビザが必要であることを意味する可能性があります。 BERT を使用すると、2 つの文の文脈上の違いを理解できます。
BERT と RankBrain の違いは何ですか?
RankBrain は、検索に適用された Google の最初の AI メソッドです。 オーガニック検索のランキング アルゴリズムと並行して実行され、これらのアルゴリズムによって計算された結果を調整します。 RankBrain は、過去のクエリに基づいて、アルゴリズムによって提供される結果を調整します。
また、RankBrain は、Google が検索クエリを解釈するのを容易にし、クエリとして正確な単語を持たない可能性がある結果を表示できるようにします。 たとえば、「ドバイのランドマークの高さ」を検索すると、ブルジュ ハリファに関連する情報が自動的に表示されます。
一方、BERT の双方向コンポーネントは、BERT を非常に異なる方法で動作させます。 従来のアルゴリズムがページ内のコンテンツを調べて関連性を判断するのに対し、NLP アルゴリズムはさらに一歩進んで、単語の前後のコンテンツを調べてコンテキストを追加します。 人間のコミュニケーションは通常、複雑で階層化されているため、自然言語の処理におけるこの進歩は不可欠です。
Google は BERT と RankBrain を一緒に使用して、クエリを処理および理解します。 BERT は、RankBrain の代替ではありませんが、検索用語に応じて、他の Google アルゴリズムと一緒に、または RankBrain と組み合わせて適用できます。
より多くの言語での検索の改善
ある言語から学んだことを別の言語に適用する機能を備えたBERT は、検索結果を世界中のインターネット ユーザーにとってより関連性の高いものにするために利用されています。 たとえば、英語など、ウェブで最も広く使用されている言語から学んだことは、他の言語にも適用されます。 これにより、人々が検索している他の言語でも改善された結果が提供されます。 さらに、BERT モデルは、国や言語を超えた強調スニペットの関連性も高めます。
BERT はあなたのビジネスにどのように影響しますか?
BERT は、強調スニペットや BERT の更新の影響を受けたウェブ結果を提供するように Google アシスタントをトリガーすることで、Google アシスタントにも影響を与えます。 BERT のような NLP テクノロジは、機械の理解力を高めます。このイノベーションは、多くのオンライン ユーザーやビジネスにとって間違いなく有益です。 ただし、SEOに関しては、原則は変わりません。 マーケティング戦略にSEO のベスト プラクティスが根付いていれば、Web での成功が保証されます。 高品質で関連性が高く、新鮮なコンテンツを一貫して作成している Web サイトは、このアルゴリズムの更新の恩恵を最も受けるでしょう。
キーワード調査に基づいて優れたコンテンツを作成することは、検索エンジン全体で優先されるランキング要因であり続けるでしょう。 ユーザーが期待する有益で正確なコンテンツを取得することに重点を置いている Web サイトの所有者は、最終的に SERP で上位にランクされます。 優れたコンテンツを作成しながらページのパフォーマンスを監視することは、ウェブサイトの関連性を維持するのに役立ちます。
NLP は検索意図を解決しますか?
BERT を使用すると、クエリで使用される言語や単語に関係なく、Google が正しい結果を得る可能性は高くなりますが、それでも 100% ではありません. たとえば、BERT を使用して「ネブラスカの南にある州」を検索すると、カンザスではなく「南ネブラスカ」という結果が得られる可能性が高く、これがユーザーが求めている答えである可能性があります。
機械が言語を理解するのを助けることは継続的な取り組みであり、特定のクエリから明確な意味を導き出すことは複雑なプロセスです. Google が主要なキーワードのリストに NLP を適用すると、表示される上位の結果に必要なキーワードの一部または 1 つだけが含まれていない可能性があり、それらの結果は無関係になります。 BERT により、Google はアルゴリズムに洗練された更新を提供することでゲームを強化しましたが、人間の言語の複雑な性質のために、検索は未解決の問題のままです。