Gerry White による SEO 用にログファイルを使用する 5 つの方法

公開: 2023-02-08



ログファイルをどのように活用して SEO を改善していますか?

それが、BBC、Just Eat、Rise at Seven などのブランドやエージェンシーで働く、SEO 業界で 20 年以上の経験を持つ男性と今日話し合うことです。 In Search SEO ポッドキャスト、Gerry White へようこそ。

このエピソードでは、Gerry が SEO のためにログファイルを使用する 5 つの方法を紹介しています。
  • Google がサイトをどのように見ているかを確認する
  • パラメーター
  • クロール バジェットを消費しているサブドメインはありますか
  • JavaScript および CSS ファイル
  • 応答コード

Gerry: ねえ、ここに来てよかった。

D: よろしくお願いします。 LinkedIn で Gerry White を検索すると、Gerry を見つけることができます。 では、Gerry さん、すべての SEO はログファイルを使用する必要がありますか?

G: いいえ、ログファイルと言うと物議を醸すように聞こえますが、膨大な量の情報があります。 しかし、正直なところ、多くの場合、収益は減少しています。 また、通常、ログファイルに入る前に多くの情報を見つけることができます。 つまり、Google Search Console の情報を見てみると、膨大な量の情報が存在するということです。 ログファイルを調べているとき、最初に他の多くの場所を使い果たしたときです。 Screaming Frog などのデスクトップ クローラーを使用してサイトをクロールし、ログファイルを確認する前に Google Search Console を確認することを常にお勧めします。

私がそう言う理由と、ログファイルの有用性について話すときにほとんど反ログファイルのように聞こえる理由は、最初は実際に作業するのが非常に難しいという事実です。 そして、実際にそれらを手に入れたり、それらにアクセスしたりするには、少しのスキル、知識、経験が必要です. しかし、今日の素晴らしい点の 1 つは、ログファイルへのアクセスが以前よりも多くなったことです。 私が仕事を始めた当初は、現在のような Google Analytics や分析ソフトウェアはありませんでした。 ログファイル分析は、人々がどのように Web サイトを訪問したかを調べる方法でした。 今では、InfoSec で何かをしている場合を除き、人々が Web サイトをどのように見ているかについてログファイルをめったに見ません。 または、本当に奇妙で素晴らしい何かを診断するために何かをしています。

しかし実際には、多くの場合、はるかに優れた分析ソフトウェアがあります。 これは変わる可能性があります。実際には、多くの Web サイトでは 404 ページにアクセスした人の数を追跡できないという事実があります。多くの場合、404 ページで Cookie を受け入れることを決してクリックしないためです。 . 突然、ログファイルが再び戻ってきて、そのような非常に奇妙な質問に答えています。

しかし、今日私がログファイルについて話している主な理由は、SEO の目的のためです。 そうです、大規模なサイトで問題が発生した場合、大規模な e コマース Web サイトを所有している場合、ファセット ナビゲーションを備えた国際的で多言語の巨大なサイトを所有している場合は、ログファイルを確実に取得する必要があります。考慮に入れ、間違いなくできるだけ早く検討する必要があります。

D: 今日は、SEO でログファイルを使用する 5 つの方法を紹介します。 まず最初に、Google がサイトをどのように見ているかを確認します。



1. Google がサイトをどのように見ているかを確認する



G: ええ、Google はかなり予測不可能で、ほとんど手に負えない子供のようです。 サイトを見て、クロール ツールを使用して、Google がそのサイトをどのように見ているべきかを調べることができると私は言いますが、Google が 1 つのページ セットに夢中になっていることに驚かされることがよくあります。変な道をどこかへ。 もっと最近では、私は昨年、Odor というスーパーマーケットで働いていましたが、Google ボットがある種の分析構成を非常によく調べて、そこから人為的なリンクを作成していることがわかりました。 Google によるリンク切れの検出。 そして長い間、ページにまったくない 404 が何千も見つかった理由を突き止めようとしていました。 しかし、分析構成を調べて、そこからリンクを作成していたことが判明しました。 そのため、どの程度の影響があったかを調べています。 そして、Google がこれらの 404 をすべて見つけているという事実を見れば、それは大きな問題ではないかもしれません。 しかし、今知りたいのは、それらの 404 にどれくらいの時間が費やされているかです。この小さな問題を 1 つ修正すると、サイトの残りの部分のクローリングが 20 ~ 30% 増加することになりますか? そこを直せばチャンスは? それは、Google がなぜそのようにサイトを調べているのか、そして何を見つけてはならないのかを調べることです。



2. パラメータ



私たちがよく見るもう 1 つのことは、パラメーターです。 あなたが知っているかどうかはわかりませんが、SEO 関係者は常にページの正規バージョンにリンクします。 私が言いたいのは、ページには複数のバージョンがあり、時にはある種の内部追跡または外部追跡があるということです。 ページにリンクする方法は非常に多く、たとえば製品がサイト内の複数の場所に配置されることがよくあります。 これの良い例は、私が Magento というサイトで作業したことです。 そして、すべての製品がすべてのカテゴリに属しているように見えたので、すべての製品に約 20 のバージョンがあり、すべての製品がクロール可能であることがわかったときは驚きました。 そこから、Google もサイトのクロールに膨大な時間を費やしていることがわかりました。 興味深いことに、製品を削除すると、Google は「ああ、でもこの製品の他のバージョンが 19 ある」と言うので、使用した場合、実際のページがほとんど消えるまでにしばらく時間がかかります。 Google の仕組みにより、404 またはそのようなもの. Google は、これがこのページの正規バージョンであると認識します. しかし、正規バージョンを削除すると、別のページが使用され始めます. logfile が私たちに与える情報の . Google と同じようにサイトを見ることができる.

また、ステータス コードなどを確認することもできます。 この好例は、変更されていないことを示すステータス コードです。 そして、今の私の人生では、それが何であるかを考えることができません。このポッドキャストの前にこれを書き留めておくべきでした. しかし、基本的に、「私は変更されていません」はウェブサイトのクロール率を大幅に向上させます。そして、これが Google が尊重しているものであることがわかったとき、私にできることはすべての画像、すべての製品を使用することでした。 、および定期的に変更されることのないこれらすべてのビットとピースは、変更されていないものを使用できれば、Google のクロール速度を改善し、効果を改善し、サーバーの負荷を軽減できます。その後、Google がさまざまな製品をすべて見つける方法が大幅に改善されます。

Google が物事を見る方法は、サーバー管理者が望んでおり、誰もが望んでいることですが、サーバーが可能な限り高速で効率的であることです。 繰り返しになりますが、ログファイルの側面に戻ると、最近では、何年もの間、ログファイルをまったく効果的に使用できませんでした。 CDN を使用すると、ページがヒットする場所が複数あることがよくあるからです。 また、CDN 自体にはログ ファイルがないことがよくありました。 したがって、これらのさまざまな場所をすべて見て、このサーバーにどれだけの負荷がかかっているか、そのサーバーにどれだけの負荷がかかっているかを確認します。 そして、すべてをつなぎ合わせようとすると、ログファイルは異なる形式になります。 CDN を使用することで、実際に CDN の有効性を理解し始めることができます。 突然、PageSpeed のようなものは、ログファイルを使用すると、たとえば画像の正規化によって画像を理解し始めることができるという事実によって大幅に影響を受け、改善されます。したがって、1 つの画像が複数のページで使用されている場合URL が一貫している限り、CDN は機能し、Google はより適切にクロールします。 ええ、ログファイルが PageSpeed、キャッシュ、およびユーザーと検索エンジンへのサービス提供をより効率的に改善するのに役立つさまざまな方法があります。

D: あなたが共有しようとしていた 5 つのポイントを確認しています。 そして、あなたがすでに共有したそれらのさまざまな要素があります. あなたは、私が 1 つの質問をするだけで、それ以上の質問をせずに 15 分間のポッドキャスト エピソードを提供してくれる人を思い出します。 ですから、あなたよりも、おそらくそれができる人が 1 人います。 そして、それはおそらくデュアン・フォレスターです。 Duane と私は、私が彼に 1 つの質問をしただけで、私はその場を立ち去り、残りのエピソードの内容を共有するために彼を置いていったと冗談を言いました。 しかし、パラメータについて少し話しました。 ポイント 3 に触れたかどうかはわかりませんが、クロール バジェットを消費しているサブドメインがあるかどうかを発見することです。



3. クロール バジェットを消費しているサブドメインはありますか?



G: これは Just Eat にまでさかのぼります。 ある時点で、Web サイトが複数の異なるサブドメインに複製されており、これらすべてがクロール可能であることがわかりました。 興味深いことに、これらは Citrix などのツールによると可視性がありませんでした。 彼らがそうしなかった理由は、それがすべて正規化されていたからです。 そのため、これらの重複が存在していたにもかかわらず、Google がこれらのサブドメインのクロールに費やしていた予算の 60 ~ 70% がやや少ないことがわかった. また、CDN やその他のテクノロジのために、これらが同じ方法でキャッシュされていなかったため、実際には多くのサーバー負荷が発生していました。 ですから、これは私たちにとって魅力的なことでした。なぜなら、これは非常に将来的に修正する必要がある問題として無視していたからです. 問題を知っていたからです。 私たちはある種の問題があることを知っていました、そして私はそれについて話しました. しかし、ログファイルを調べ始めるまで優先順位を下げていました。

Google がここに多くのエネルギー、時間、リソースを費やしていることがわかりました。 どのくらいのサーバー負荷が発生していますか? どれくらいの影響でしたか? また、サーバーがさまざまなソースを解釈できなかったため、サーバーの負荷がどの程度かを理解できませんでした。 そのため、ログファイルを取得したときに、Web サイトの信頼性を大幅に向上させることができたのは興味深いことでした。 そのため、サブドメインについては知っていましたが、ログファイルを調べ始めるまで、それがどれほどの問題かはわかりませんでした. そして突然、これをできるだけ早く修正する必要があることがわかりました. それは私たちがそれを修正する方法を知っていたものの1つであり、それは単に優先順位付けでした. それはキューの一番下にあり、2 番目に跳ね上がりました。



4. JavaScript および CSS ファイル



D: あなたは正規化について触れましたが、具体的には JavaScript と CSS ファイルが問題になる可能性があるとも言いました。 何故ですか?

G: 私たちがよく行うことの 1 つは、CSS ファイルにパラメーターを追加してキャッシュを壊すことです。 これを行う理由は、CDN などを使用するとどうなるかということです。CSS を更新するたびに、新しいページなどを作成しているときに、CSS ファイルがキャッシュされており、新しいページでは使用できません。 そして、これらのさまざまな JavaScript および CSS ファイルのすべてで、長いキャッシュ時間があります。 したがって、ページ内で、JavaScript または CSS を更新する必要があるものを追加するとすぐに、その中のパラメーターを少し変更するだけです。 そこから、すべての異なるサーバーが同じパラメーター バージョンを使用していることを確認する必要がありました。 これは、複数の異なるチーム、複数の異なる Web サイトで作業している場合、全体を強化する 1 つのより優れた JavaScript が正しいバージョンであることを常に確認するものでした。 ログファイルは、API キーなどを更新する必要があったため、さまざまなページのすべてが一貫して適切な JavaScript バージョンにヒットしていることを確認する 1 つの方法でした。 私たちがそれをしなければならなかった非常に多くの異なる方法がありました。 そして、これは開発者にとって大きな仕事でした。

ログファイルで確認したことの 1 つは、古いファイルが攻撃されたのか、どこから攻撃されたのか、修正できるかどうかということでした。 また、JavaScript ファイルへのパスを記述するさまざまな方法があることもわかりました。 たとえば、別のホスト名を使用していたのはサブドメインでした。興味深いことに、複数の異なる Web サイトで作業している場合、実際には同じサーバーにアクセスする別の URL または別のドメイン名が存在することがよくあります。 また、CDN を使用している場合やサブディレクトリを使用している場合は、非常に一貫性がない場合があります。 ユーザーの観点から見ると、ジャーニー内で同じ JavaScript ファイルに 6 つまたは 7 つの異なる方法でアクセスしている場合、6 つまたは 7 つの異なる方法でファイルをロードしていることになります。 それほど多くないように思えるかもしれませんが、累積すると、旅に数メガバイトが追加されます. そしてもちろん、それは全体のエクスペリエンスを遅くし、サーバーの効率を低下させます. それだけではありません。 そのため、JavaScript、CSS、およびその他の断片の適切なバージョンが常にヒットしていることを確認してください。 また、JavaScript がパラメーターなどで隠される理由がないことも確認してください。 スパイダー トラップを作成する方法は非常に多くあります。これには JavaScript ファイルが含まれます。たとえば、何かがタグ付けされたり、JavaScript への正しい絶対参照を使用していない可能性があります。 そのため、他の時間とは別のディレクトリにあります。 JavaScript が複数の異なるページでわずかに異なる方法でロードされていることを、さまざまな方法で見つけることができるのは驚くべきことです。 ええ、それは非常に単純なものです。 しかし、分析に関しては驚くほど高価です。



5. 応答コード



D: また、応答コードが希望する方法で配信されていることを確認します。 その一例は、TOS を介して、Google によって表示される場合と表示されない場合がありますが、表示されるべきである、または表示されるべきではありません。 では、なぜそれが起こるのでしょうか?

G: 繰り返しになりますが、私たちは常に同じブラウザー、同じテクノロジー、同じエクスペリエンス、そしてすべてを使用して Web ページにアクセスしています。 誰もが Screaming Frog の監査を行っているので、普段使用しているもの以外のツールを使用するようにしています。 しかし、私たちはいつも自分がコンピューターのようなものだと思っています。 したがって、Googlebot のふりをしたり、これらすべての異なるものであるふりをしたりすることはありません。 つまり、Google ボットが別の IP アドレスから特定のファイルにアクセスする方法を調べてみると... CloudFlare などの多くのテクノロジーで、Googlebot のふりをして、Screaming Frog を使用してアクセスしようとしている場合、それはあなたがGooglebot ではなく、あなたが実際にこれです。 そのため、Googlebot をどのように扱うかとは異なります。 また、多くの場合、サーバーは事前にレンダリングしてすべての細かな処理を行うように構成されています。 そして、その時点で全員がサーバーから正しい応答コードを取得できるようにするだけです。

そして、それは非常に単純に思えますが、国際的にスケールアップしている場合... 地理リダイレクトがある場合、ユーザーまたは検索エンジンが特定のページにアクセスできない場合、誰かが地理リダイレクトを設定して、これにアクセスするとそのため、ルート バージョンまたは代替バージョンを参照できません。 そのため、応答コードが正しいことなどは絶対に重要です。 そして驚くべきことに、これらのことを何度も経験し、すべてが正しくセットアップされていると思い込んでいます。 何度も何度も、どのように設定する必要があるかを知っているからです。 私たちはこれを誰かに与え、誰かがそれを解釈し、別の人がそれを実装し、他の誰かがそれを経験します。 そして、別の誰かが CDN のボタンをクリックすると、「ああ、この特定の場所で誰かを地理的に特定できます」というメッセージが表示されます。 誰かが何か間違ったことをしたという事実ではなく、チェーンの下流に効果的にそれをわずかに壊した何かがあるということです。





パレートピクルス - 簡単にできるフルーツ



D: パレート ピクルスで締めくくりましょう。 パレートは、20% の努力から 80% の結果を得ることができると言っています。 適度な労力で信じられないほどの結果が得られる、お勧めの SEO アクティビティを 1 つ挙げてください。

G: 現時点で私が気に入っているのは、非常に基本的な Google データスタジオ ダッシュボードがあることです。 さて、誰もが流行語のビンゴを嫌います。 しかし、これは私のものであり、本来あるべきほどランキングされていないものを見るものです. 特定の一連のページ、レシピ、製品、または何かでランク付けされているすべてのキーワードを確認します。 良い例として、現在、私は何千もの製品に取り組んでおり、印象の高いすべてのページを調べていますが、6 位にある可能性があり、それらを 3 位まで上げることができます。そして、タイトルタグが改善され、内部リンクが改善されていることを確認するだけで、10回のうち9回はこれを行うことができます. クリックスルー率を上げるために、検索ボリュームの高いキーワードのどれをもう少し増やすことができるかを見つけるための非常に単純なこと.

D: 私はあなたのホストでした、デビッド・ベイン。 LinkedIn で Gerry White を検索すると、Gerry を見つけることができます。 Gerry さん、In Search SEO ポッドキャストをご利用いただきありがとうございます。

G:どういたしまして。 お時間をいただきありがとうございます。

D: 聞いてくれてありがとう。 これまでのエピソードをすべてチェックして、ランク レンジャー プラットフォームの無料トライアルにサインアップしてください。