
記事を継続することが大切とよく言われているよね。
でもずっと言われているとおりに継続しているけど成果が出ていないと不安になるよね。
この記事を読んで欲しい人
・ブログでなんでクローラーの対策をしないといけないのか分かっていない人
・具体的なSEOクローラー対策について知りたいと思っている人
この記事を読むと...
■具体的なクローラー対策について理解できる
Contents
【クローラー対策】ブログで成果が出ていない方はGoogleに適切に伝わっていないことが原因
サイトのSEO対策には”内的要因”と”外的要因”の大きく2つがあります。今回解説する内的要因とはサイト全体の評価に関することとページ1つ1つに関することになります。
サイトのマイナスを無くせるSEOクローラー対策とは
クローラーってそもそも何だっけ?
クローラーとは、Googleがもっているサイト内の情報を収集するロボットの事です。
このロボットがネット上の様々な情報を収集して評価しているんです。別名Googlebotとも言います。
検索順位が決まる仕組みについてはGoogleアルゴリズムとは?初心者こそ知っておくべき順位下落時のSEO対策について解説で基礎からしっかりと解説をしています。
クローラーが情報収集する回数が決まっています
クローラーもサイト内の情報を収集するのに上限が決まっているんです。
個人で行っているブログの規模ならそんなに心配は無いですが1日にクローラーが回遊出来る回数が決まっているということだけは知識で覚えておくようにしましょう。
SEOクローラビリティ対策
クローラビリティ対策とは、Googleのロボットであるクローラーに対して適切な情報を届けるためにサイトをキレイにすることです。
具体的に何をしたらいいかというと、まずはアナタのサイトにあるページが正確にGoogleから認識されているかを確認する必要があります。
GoogleSearch Consoleで確かめるのが1番正確ですので確認してみましょう!そこで正式にインデックスされているかを確認しつつ下記の4つの設定がどうなっているのかを確認するようにしましょう。
①301リダイレクト
②canonical
③noindex
④robot.txt
301リダイレクトとは?
301リダイレクトとは、恒久的に変更された場合に使う転送処理のことです。似たようなコンテンツ内容の新しいページができた時に古いページに辿り着いた際にこの転送処理を行うことで新しいページに誘導することが出来ます。
このように新しいページに飛ばしたいのであれば問題はないですが、古いページがから転送処理がされないままになってしまっており、低品質なページとしてGoogleから見られてしまうともったいないので転送処理の対策が抜けていないかを確認するようにしましょう。
canonicalとは?
canonicalとは、重複しているコンテンツが存在しているときに、どちらか1つに評価を集客する際に使う対策です。サイトのテーマが統一されている特化型ですと毎日記事を書いていると起きやすい問題です。
ページのコンテンツが類似もしくは重複しているURL が複数存在する場合、検索エンジンはどのページを検索結果に表示すべきか判断ができません。
どちらのページもしっかりと作り込んでいるのですがよく見ると内容が結構同じだったりするとGoogleから重複コンテンツとしてマイナス評価を受ける可能性があります。
その際に1つのページからもう1つのページに”canonical"を入れることで1つのコンテンツとして見てほしいというメッセージをクローラーに届けることが出来ます。注意点としては評価して欲しいページから他ページへcanonicalの設定をしないようにしてください。
他にもcanonicalで飛ばしたいページが2つあるからといって2つのページにcanonicalを設置することは避けてください。この場合どちらの対策も無意味になりクローラーから無視されてしまいます。
noindexとは?
noindexとは、クローラーに対してこのページは”読み取らないでください”と認識させる対策です。先程のcanonicalはどちらかのコンテンツとして統一してくださいということで分散してしまう可能性のある評価を集約する効果がありますがnoindexはそもそも無いものとして評価してもらう際に活用します。
Googleはサイト内にあるページの一定量が低品質ページで占めてしまうとサイト全体の評価を下げてしまう可能性があります。
noindexをしっかりと入れておくことでこれらはすぐに防げます。下記2つのページについてはnoindexをすることをオススメします。これらに対して対策を行えば検索結果に表示されなくなりますのでマイナス評価を受けることも無くなります。
①現在順位がついていない記事
②そもそも上位表示を狙っていない内容の薄い記事
robottxtとは?
robot.txtとはクローラー対して、ページに訪問されることを防ぐ効果があります。まずはサイト内にこのテキストが含まれているかを確認しましょう。( http://example.com/robots.txt で検索)
この対策を行うことで、そのページの中身がどんな情報かクローラーにはわからないので適切に評価されることはありません。
一般ユーザーにとって価値のない、必要としないページなど、検索エンジンに認識してもらう必要のないページのアクセスを制限するためのファイルです。重複コンテンツ防止・低品質ページ対策で使わないようにしましょう。
サーチコンソールでインデックス化をリクエストする
サーチコンソールでこのように「URL検査」→「URL入力」→「インデックス登録をリクエスト」を実施しましょう。
この画像だと既に登録されていますが出来ていないと「URLがGoogleに登録されていません」と出ます。新しく記事を更新したらまずはこの対策を実施するといいでしょう。
構造をメッシュ化することが大切
メッシュ化については、こちらの記事を読んでもらうと詳しく解説をしています。
簡単に言ってしまえば、クローラーが非常に回遊しやすいサイト構造にする対策のことを指します。
これができていればブログの中に沢山の記事を入れたとしてもそれぞれが関連されていることをクローラーに伝えるだけではなく、情報を整理しやすくなるので評価もされやすくなります。
一度サイト内のカテゴリ構造をサイトマップにしてみるのもかなりおすすめですのでやってみましょう。
SEOクローラビリティ対策のまとめ
いかがでしたか?毎日記事をアップし続けるのはブログ運営やSEO対策においては非常に重要です。
だからこそ、毎日継続を続けていると見えない内にサイトが少しごちゃごちゃしてしまうのも事実です。せっかく書いた記事を適切にGoogleに評価してもらわないと勿体ないですよね。
ここで解説しているクローラー対策をしっかりと実践することでいまアナタのサイト内で起きてるマイナス問題がひと目で分かり、それらを無くすことが出来ます。
サイトのマイナス要素がゼロになるからこそ毎日継続している記事の作成が活きてきます。今すぐGoogleSearch Consoleを開いてアナタのサイトにマイナスがないかを確認しましょう!
合わせて読みたい
読んでいただき、ありがとうございました。
もし今回の記事を気に入っていただければ、ランキングのクリックや記事の購読・下の方にSNSのフォローをお願いいたします。
励みになりますので、どうぞ宜しくお願いします。