SEOデータアナリストのようにコンテンツを監査する方法

公開: 2023-02-22


トラフィックを増やすために Google Search Console のデータを積極的に使用していますか?

計算の実行や SEO 戦略の準備で忙しくしていないとき、彼は Twitter や LinkedIn で SEO の誤った情報という闇と戦っています。 彼は SEO スペシャリストであり、B2C コンテンツ、Web サイト、およびパブリッシャーに焦点を当てたデータ アナリストです。 In Search SEO ポッドキャスト、Marco Giordano へようこそ。

このエピソードでは、Marco が SEO データ アナリストのようにコンテンツを監査する方法を紹介します。
  • セットアップ
  • 目標の定義
  • データクリーニング
  • 分析
  • 洞察と実装



1.セットアップ



マルコ: ありがとう、デビッド。 始めなければならない場合、最初で最も重要なことはセットアップです。 最初のステップは、プロジェクトのセットアップ要件を正しく設定することです。 これは基本的に API アクセスです。 Google のデータを扱うときは、インターフェースから取得する抜粋よりも API を使用する方が常に優れています。そうしないと、得られるデータが少なくなるためです。 また、手動プロセスで作業することも困難です。 理想的には、開発チームがある場合、または自分でできる場合は、無料の Search Console API を使用して、この API を呼び出してこのデータを取得できるスクリプトまたはコードをセットアップできます。 これが最も重要なステップです。

何を引っ張らなければならないかなど、考慮すべき要素は他にもあります。 大規模な Web サイトや代理店向けの推奨事項は、クラウド プラットフォームでクラウド機能を作成することです。 基本的に、Google サーバー内のクラウド上で実行される機能であるため、このデータを安全に保管するデータベース ストレージである BigQuery にデータを送信できます。 わかった。 これは最も重要なことです。 プルする必要があるものを定義する必要があります。 米国だけが欲しいですか? あなたはすべての国が欲しいですか? URLで制限しますか? それはプロジェクトによって異なります。

D: これは、Google Search Console のデータを使用してより多くのトラフィックを獲得するための 5 つのステップのうちのステップ 1 であり、目標を定義するステップ 2 に進みます。



2. 目標の定義



M: はい、データをどう扱うかを理解する必要があります。 SEO を行っている場合は常に Search Console を使用する必要があるため、1 番ではなく 2 番に付けました。これはオーガニック データであるため、とにかく使用する必要があります。 目標を定義するということは、次のステップで何をしたいのかを理解することを意味します。 分析に関して言えば、なぜ、何を分析したいのかということです。

たとえば、B2C コンテンツ Web サイトを分析している場合、ほとんどの場合、トラフィックを増やす方法と、コンテンツ制作に関して良い機会を見つける方法を確認する必要があります。 または、監査にも使用できます。 または、すべて一緒に行うこともできます。 重要なことは、明確な目標を定義し、分析の観点から何かを行う理由を明確にすることです。 データについて質問し、何を質問し、何を検索しているかについて自信を持ってください。 そうでなければ、それはただの探検だからです。 それは良いことです、それは理にかなっています。 しかし、ほとんどの場合、SEO については、自分が何を望んでいるかをすでに知っていると思います。

D: では、設定するのに適した目標の例は何ですか?

M: B2C コンテンツの Web サイトを運営している場合、いくつかのクラスターのトラフィックを改善するにはどうすればよいかという質問をするのがよいでしょう。 改善の余地はどこにありますか? ホームページに関してではなく、コンテンツを追加したり、新しい角度を見つけたりするという意味ではありません。 どうすればいいですか? 多くのクエリがあるため、Search Console のデータからこの答えが得られます。 ランキングに入っていなくても、調査には必要なデータです。

もう 1 つの例は、監査が必要な場合です。可能性が最も高いページは何かを尋ねることができます。 これは、より多くのお金を獲得する可能性が最も高いページを見つけるという目標になる可能性があります. しかし、最高の可能性をどのように定義しますか? それは別の質問です。

D: しかし、最高の可能性は、最高の潜在的なトラフィック、最高の潜在的なランキング上昇のようなものでしょうか?

M: コンテンツ Web サイトの場合、Mediavine などの広告プロバイダーでデータを管理できます。これは、Web サイトで何をしているかによって異なります。 アフィリエイト マーケティングを行っている場合、何も販売していなければトラフィックだけでは意味がありません。何かを販売する必要があります。 したがって、このような場合は、他のデータを統合したり、どこを見ればよいかを理解したり、独自の指標を定義したりすることもできます。

D: それが 2 番目の目標の定義です。 3 番目のデータ クリーニングに進みます。



3. データクリーニング



M: 分析を開始する前に、データのクリーニングまたはマンジングを行う必要があります。 基本的に、データを操作して、分析に役に立たないものを理解します。 分析のために何を削除する必要があるかを把握する必要があります。 たとえば、WordPress でコンテンツ Web サイトを運営している場合、通常はタグ カテゴリとハッシュタグを削除しません。なぜなら、ハッシュタグはサイト リンクに使用され、サイト リンクは気にしないからです。それらは分析の観点から役に立たないからです。 クリックがゼロになり、インプレッションが膨らむため、サイト リンクを分析する必要はありません。 ページネーションは必要なものではないため、「ページ」を削除します。記事が必要なだけです。 記事のトラフィックを改善する方法を測定しているため、ページネーションを行う必要はありません。 また、著者ページ。 オーガニック トラフィックの観点からランク付けすることは想定されていません。著者をランク付けする必要はありません。 それらをインデックス化する必要がありますが、それは私たちの分析の目標ではありません. 私たちはコンテンツについて話しているのであって、それ以上のお金を得ることはありません。 したがって、著者ページを改善しても、記事やブログ投稿に関するコンテンツではないため、役に立ちません。

D: 了解しました。著者ページにランク付けできます。 また、比較的有名な著者がいる場合は、トラフィックを獲得できることもあります。 しかし、結局のところ、そのトラフィックは変換されないため、現時点で測定しているものではありません.

M: うん、記事を探したいだけだからダメだよ。 これは技術的なことではなく、戦略と内容に関するものです。 これは重要なポイントです。タグページやその他のものを追跡するためにここにいるのではなく、重要な記事を見つけて改善し、より多くのトラフィックを得ることができます.

データのクリーニングを行ったら、クエリなどの他の詳細もクリーニングする必要があります。 通常、API を介してデータを取得すると、Web サイトが英語であっても、日本語やアラビア語のクエリなど、外国語のデータが取得されることがよくあります。 したがって、特に英語のウェブサイトの場合は、分析に興味がないため、を削除しました. また、役に立たないものはすべて削除しようとしています。 たとえば、いくつかのクエリがあなたのビジネスに関連していないと確信していて、Google があなたを 70 位にランク付けしているという理由だけでそこにある場合は、それらを削除できます。 結果は手動部品です。 これはデータ サイエンスであり、SEO ではありません。データを管理し、分析に不要なものを削除する必要があります。

D: それがデータのクリーニングです。多くのクリーニングを行う必要があります。 4番目の分析に移りましょう。



4. 分析



M: つまり、実際の作業が行われる分析中に、コンテンツ Web サイトを扱うだけなので、いくつかのプロセスがあります。 eコマース、SaaS、またはそれらすべてを一緒に行うことに比べて、より狭い範囲です。 1 つのタイプのみをカバーする場合は、プロセスを作成する方が簡単です。 私は通常、ユニーク クエリ カウントをチェックします。つまり、ページがランク付けされているユニーク クエリの数を数えます。 したがって、繰り返しや重複はありません。 これは、ページの重みを理解するためです。 もちろん、順位の低いクエリにもランクインしたり、役に立たないクエリにランクインしたりできるので注意が必要です。 しかし、平均して、ユニーク クエリ数はページの可能性を示す良い指標です。 アフィリエイト マーケティングやその他の金銭的データを考慮していない場合、クエリ数は何かを測定するための最良の方法です。 通常、トピックを拡大できるように、B2C のクエリをどこで取得できるかを理解したいだけです。

もう 1 つ確認すべきことは、クリックがゼロのページの数です。 なぜ? Web サイトの 40% がゼロ クリック ページである場合、それはおそらく良い Web サイトではないからです。 オーガニック トラフィックを獲得しようとしていて、ウェブサイトのほぼ半分が価値がないことを確認するように Google に指示している場合、Google はそれを理解し、ペナルティを科します。 クリックを獲得しているコンテンツと何も獲得していないコンテンツの比率が悪い場合、これは利点ではありません。 これは常に監視しなければならないものです。私にとっては安いので、毎月行っています。

D: ゼロクリック ページをなくしたり、別のページにリダイレクトしたりすることにかなり積極的ですか?

M: いいえ、私はそれらを取り除くことに積極的ではありませんが、それらを見つけることには積極的です. あなたはそれらを見つけなければなりません、そしてあなたは決めます。 それらのページがソーシャル メディアやニュースレターなどの他のマーケティング チャネルで使用されている場合は、それらを保持し、削除する必要がないからです。 コメントがある場合、バックリンクがある場合、私はそれらを決して削除しません。 しかし、それらがあなたのビジネスに関連していない場合、たとえトラフィックがあったとしても、リードが得られなかったとしても、それらのページはより危険にさらされています. または、更新できないコンテンツの少ないゼロクリック ページです。 したがって、回復の可能性がない場合、薄いページである場合、コンテンツが弱い場合、またはコンテンツがまったくない場合は、それらを整理 (削除) しますが、それは最後の手段です。 剪定を第一の解決策とは考えていません。

D: 5 番目の洞察と実装に移りましょう。



5. 洞察と実装



M: 5 番目は、このデータをどのように使用できるかを理解することです。 そして、これがトリッキーな部分です。 分析は簡単ではないからです。 ただし、コードは常に同じであるため、コードを見つけるのは簡単です。 また、Chat GPT に質問することもできます。問題ありません。 問題は、この情報を使用して洞察を得ることです。 たとえば、ステップ 4 で私が言いませんでしたが、彼らは通常、クリック数の上位 10 ページのトラフィックの割合をチェックして、Web サイトのリスクを理解するということです。それはリスクです。 ページが 1 つでも順位を 1 つ失うと、莫大な損失を被るからです。 したがって、ステップ 5 のインサイトでは、今学んだことを使用してソリューションを提案する方法を理解する必要があるため、これは重要です。 この事実を知っているので、どうすればウェブサイトを改善したり、リスクを軽減するための実用的なソリューションを提供したりできますか? または、これらのページのクエリ数が多いことがわかっている場合、このトピックを多様化して、より多くのサブ記事またはサブトピックを取得するにはどうすればよいでしょうか? または、これらのページに高い収益性があることがわかっている場合、どうすればより多くのお金を稼ぐことができますか? どうすればいいですか?

ステップ 4 の情報を入手したら、戦略を作成する必要があります (ここで SEO の出番です (これは、結果をもたらすために何をしなければならないかを考えると理にかなっています。わかりました。これは最も難しく、最も挑戦的な部分です。まず、データを適切にクリーニングする必要があります. そうでない場合は、他の手順を実行できます. 次に、何をしたかを理解する必要があります。ステップ 2 では、何が必要なのか、何をマージする必要があるのか​​などを理解します。

D: これを聞いている SEO 担当者の 99% は、私には B ができると考えているに違いありません。 そこにはたくさんのチャンスがあります。





The Pareto Pickle - クラスタリング



最後はパレートピクルスで締めましょう。 パレートは、20% の努力から 80% の結果を得ることができると言っています。 適度な労力で信じられないほどの結果が得られる、お勧めの SEO アクティビティを 1 つ挙げてください。

M: クラスタリング。 完全停止。

キーワードをグループ化するという観点から、キーワード検索をクラスター化します。 コンテンツ制作の時間を大幅に節約できるツールがいくつかあります。

D: お勧めのツールはありますか?

M: キーワード インサイト。

D: わかりました。 そして、それは明らかに、コンテンツ制作戦略をリードします。

M: もちろん、まだ手作業があります。 ツールを手に取って実行するだけではありません。 しかし、このプロセスは優れたコンパニオンです。なぜなら、キーワードのリストを選び、書き、それらがSERPで共通のドメインであるかどうかを見つけることができるからです。これは、1つ以上の記事を作成する必要があるかどうかを確認する最良の方法です.何をすべきかを理解できるように、リストを取得します。 これは、労力とコストのトレードオフの点で最高の SEO アクティビティです。 つまり、ツールにお金を払うとかなり高額になるので、フリーランサーや中小企業向けではありません。 しかし、キーワード調査を行うことを考えると、毎日ではなくたまに行うため、それほど費用はかかりません。 だから実現可能です。

D: たまにですか、年に 1 回ですか、四半期に 1 回ですか?

M: プロジェクトの状況と範囲によって異なります。 非常にダイナミックなプロジェクトであれば、毎週行うこともあります。 しかし、それ以外の場合は3か月ごとです。 マジックナンバーはありません。 プロジェクトの範囲と予算によって研究が決まると思います。

D: 私はあなたのホストでした、デビッド・ベイン。 Twitter または LinkedIn で Marco Giordano を検索すると、Marco を見つけることができます。 マルコ、In Search SEO ポッドキャストに参加してくれてありがとう。

M: 問題ありません。 さよなら。

D: 聞いてくれてありがとう。 これまでのエピソードをすべてチェックして、ランク レンジャー プラットフォームの無料トライアルにサインアップしてください。