「発見 - 現在インデックスされていません」の理解と解決

公開: 2023-02-07

Google Search Console に「検出済み - 現在インデックスに登録されていません」と表示されている場合、Google はその URL を認識しているが、まだクロールしてインデックスに登録していないことを意味します。

ページがまったく処理されないというわけではありません。 彼らのドキュメントが言うように、彼らはあなたの側で特別な努力をしなくても後で戻ってくるかもしれません.

ただし、次のような他の要因により、Google によるページのクロールとインデックス登録が妨げられている可能性があります。

  • Google のクロール機能を制限または防止するサーバーの問題およびオンサイトの技術的な問題。
  • 品質など、ページ自体に関する問題。

また、Google Search Console Inspection API を使用して、URL をその URL のcoverageStateステータス (およびその他の有用なデータ ポイント) のキューにまとめてキューに入れることもできます。

Google Search Console 経由でインデックス登録をリクエストする

これは明らかな解決策であり、ほとんどの場合、問題は解決します。

Google が新しい URL をクロールするのが単に遅い場合があります。 しかし、根本的な問題が原因である場合もあります。

インデックス作成をリクエストすると、次の 2 つのいずれかが発生する可能性があります。

  • URL が「クロール済み - 現在インデックスに登録されていません」になる
  • 一時的なインデックス作成

どちらも根本的な問題の症状です。

2 つ目は、インデックス作成を要求すると、URL に一時的な「鮮度の向上」がもたらされることがあり、これにより URL が必要な品質のしきい値を超えて、一時的なインデックス作成につながる可能性があるためです。


検索マーケティング担当者が頼りにしている毎日のニュースレターを入手してください。

処理中…お待ちください。

条件を参照してください。


ページの品質の問題

ここで語彙が混乱する可能性があります。 「まだクロールされていないページの品質を、Google はどのように判断するのですか?」と尋ねられました。

これは良い質問です。答えは、できないということです。

Google は、ドメインの他のページに基づいてページの品質を推測しています。 それらの分類も同様に、URL パターンと Web サイトのアーキテクチャに基づいています。

その結果、これらのページを "認識" からクロール キューに移動すると、同様のページで見つかった品質の欠如に基づいて優先順位が下がる可能性があります。

同様の URL パターンのページ、またはサイト アーキテクチャの同様の領域にあるページは、同じユーザーの意図とキーワードを対象とする他のコンテンツに比べて価値の低い提案を持っている可能性があります。

考えられる原因は次のとおりです。

  • メインコンテンツの深さ。
  • プレゼンテーション。
  • サポート コンテンツのレベル。
  • 提供されるコンテンツと視点の独自性。
  • または、さらに操作的な問題 (つまり、コンテンツの品質が低く、自動生成、スピン、または既に確立されたコンテンツを直接複製する)。

サイト クラスタ内および特定のページ内のコンテンツ品質の向上に取り組むことは、より大きな目的を持ってコンテンツをクロールするという Google の関心を再燃させることにプラスの影響を与える可能性があります。

また、最高品質ではないことを認識している Web サイトの他のページをインデックスに登録しないことで、サイトの品質の良いページと品質の悪いページの比率を改善することもできます。

クロールの予算と効率

クロール バジェットは、SEO でよく誤解されるメカニズムです。

ほとんどの Web サイトでは、これについて心配する必要はありません。 実際、Google の Gary Illyes は、おそらく 90% の Web サイトはクロール バジェットについて考える必要がない、と主張しています。 多くの場合、企業の Web サイトの問題と見なされます。

一方、クロール効率は、あらゆる規模の Web サイトに影響を与える可能性があります。 見落とすと、Google が Web サイトをクロールして処理する方法に問題が生じる可能性があります。

たとえば、Web サイトの場合:

  • パラメータ付きの URL を複製します。
  • 末尾のスラッシュの有無にかかわらず解決します。
  • HTTP および HTTPS で使用できます。
  • 複数のサブドメイン (例: https://website.com と https://www.website.com) からコンテンツを提供します。

…さらに、より広いサイトの想定に基づくクロールの優先度に関する Google の想定に影響を与える重複の問題が発生している可能性があります。

不要な URL とリクエストで Google のクロール バジェットを使い果たしている可能性があります。 Googlebot が Web サイトを部分的にクロールすることを考えると、Google のリソースが十分に拡張されず、新しく公開されたすべての URL を必要な速度で検出できなくなる可能性があります。

Web サイトを定期的にクロールし、次のことを確認します。

  • ページは単一のサブドメインに解決されます (必要に応じて)。
  • ページは単一の HTTP プロトコルに解決されます。
  • パラメーターを含む URL は、(必要に応じて) ルートに正規化されます。
  • 内部リンクは不必要にリダイレクトを使用しません。

Web サイトで e コマース製品フィルターなどのパラメーターを使用している場合、robots.txt ファイルでこれらの URI パスを禁止することで、これらの URI パスのクロールを抑制することができます。

サーバーは、Google がウェブサイトをクロールするための予算をどのように割り当てるかという点でも重要です。

サーバーが過負荷で応答が遅すぎると、クロールの問題が発生する可能性があります。 この場合、Googlebot はページにアクセスできず、コンテンツの一部がクロールされません。

その結果、Google は後で戻って Web サイトをインデックスに登録しようとしますが、プロセス全体に遅延が生じることは間違いありません。

内部リンク

Web サイトを持っている場合、あるページから別のページへの内部リンクを持つことが重要です。

通常、Google は、内部リンクがまったくまたは十分にない URL にはあまり注意を払いません。また、Google のインデックスから除外することさえあります。

Screaming Frog や Sitebulb などのクローラーを通じて、ページへの内部リンクの数を確認できます。

ウェブサイトの最適化に関しては、内部リンクを備えた整理された論理的なウェブサイト構造を持つことが最善の方法です.

しかし、これに問題がある場合、すべての内部ページが接続されていることを確認する 1 つの方法は、HTML サイトマップを使用してクロール深度に「ハッキング」することです。

これらはマシンではなく、ユーザー向けに設計されています。 それらは今では遺物と見なされるかもしれませんが、それでも役に立つ可能性があります。

さらに、Web サイトに多数の URL がある場合は、それらを複数のページに分割することをお勧めします。 それらすべてを 1 つのページからリンクする必要はありません。

内部リンクも、 onClick()などの JavaScript 関数に依存する代わりに、内部リンク用の <a> タグを使用する必要があります。

Jamstack または JavaScript フレームワークを利用している場合は、それまたは関連するライブラリが内部リンクをどのように処理しているかを調べてください。 これらは <a> タグとして提示する必要があります。


この記事で表明された意見はゲスト著者のものであり、必ずしも Search Engine Land ではありません。 スタッフの著者はここにリストされています。