Bloggerインデックス完全ガイド(Search Console編)

Bloggerインデックス完全ガイド(Search Console編)

記事を公開しても検索に出ない。ライブテストは通るのに登録が進まない──そんな時に必要なのは、手順の抜けを潰し、拒否原因を順番に切り分けることです。本ガイドは Search Consoleを軸に、所有権確認→URL検査→サイトマップ送信→原因特定までを一気通貫で解説します。

TL;DR(150字)

1) 所有権をメタタグで確実に通す → 2) 記事ごとにURL検査→ライブテスト→登録リクエスト → 3) /sitemap.xmlatom.xml を送信 → 4) 拒否は「noindex/robots/重複/参照不可/薄い」の順で切り分け。外部可視性も同時確認。

前提と用語(さくっと)

  • インデックス:検索に載るための登録状態。
  • URL検査:個別URLの状態確認とライブテスト→登録リクエスト実行。
  • サイトマップ:サイトのURL一覧を知らせるフィード。Bloggerは /sitemap.xmlatom.xml の併用が有効。

Step 1|Search Consoleの所有権確認(メタタグ)

プロパティは URLプレフィックス を推奨(対象が https://smartlifebit.blogspot.com/ など明確だから)。

  1. Search Consoleで対象URLを追加→HTMLタグを選択し、メタタグをコピー。
  2. Blogger → テーマ > HTMLを編集 を開き、</head>直前に貼り付けて保存。
  3. Search Consoleに戻り「確認」。
<meta name="google-site-verification" content="xxxxxxxxxxxxxxxxxxxx" />

テーマに既存の検証タグやOG/robotsが複数あれば、後述の「重複を1セットに統一」を参照。

Step 2|記事ごとの URL検査 → ライブテスト → 登録リクエスト

  1. Search Consoleの検索窓に記事URLを貼付
  2. ライブテストを実行(レンダリング可否の確認)。
  3. インデックス登録をリクエストをクリック。

同じURLを短時間で連投せず、更新があった時のみ再リクエストが基本。

Step 3|サイトマップ送信(2系統)

  • https://smartlifebit.blogspot.com/sitemap.xml(Bloggerの自動サイトマップ)
  • https://smartlifebit.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500(フィード全件)

送信後は「取得日時」と「検出されたURL」を確認。エラー時はURLの到達性とHTTPコード(200以外が混在しないか) をまずチェックします。

よくある拒否原因と対処(トップ5)

現象主因確認ポイント対処の要旨
「ページにリダイレクトがあります」や重複扱い canonical/URLの不整合 <link rel="canonical"> がその記事URLか canonicalを実URLに統一。短縮や別URLへの自動遷移を避ける。
「noindex」関連で除外 メタ/HTTPヘッダにnoindex テーマ内やウィジェットでの重複挿入 該当箇所を削除。index,followで1セット化。
robotsでクロール不可 Disallowの誤指定 /search以外を塞いでいないか 既定はDisallow: /searchのみ。余計なブロックを外す。
「参照不可」や本文取得不能 204/4xx/JS依存で本文なし 外部可視性でテキストが出るか 静的HTMLに本文を確保。画像遅延やスクリプト依存を減らす。
薄い/重複コンテンツ扱い 本文が短い・重複・付加価値不足 語数・独自要素・内部リンク 事例/比較/数字を加筆。関連3本以上の内部リンクを追加。

必要最小のメタ例(記事ページ)

<meta name="robots" content="index,follow">
<link rel="canonical" href="【記事の正規URL】">

外部可視性の簡易チェック(本文が取得できるか)

下のURLに対象記事URLをはめ込んでブラウザで開き、本文テキストが見えれば最低限の到達性はOK。

https://r.jina.ai/http://【記事URL】

テキストが出ない/明らかに短い場合は、204/4xxやJS依存を疑い、本文の静的化や画像の遅延設定を見直します。

テーマ内の重複OG/robotsを「1セット」に統一する

OG/Twitterカードやrobots系が重複すると解釈が不安定になります。必要最小に絞るのが安全です。

OG/Twitter(最小セット)

<meta property="og:title" content="【記事タイトル】">
<meta property="og:description" content="【120–160字の要約】">
<meta property="og:type" content="article">
<meta property="og:url" content="【記事URL】">
<meta property="og:image" content="【1200x630画像URL】">
<meta name="twitter:card" content="summary_large_image">

再試行の間隔と実務運用

  • 同じURLへの登録リクエストは更新時のみ、数日〜1週間あけて再申請。
  • 公開ごと:URL検査→ライブテスト→登録リクエスト→サイトマップ確認をルーチン化。
  • 週次:クエリと内部リンクの見直し(ハブ⇄クラスターの往復導線)。

チェックリスト(コピペ運用用)

  • [ ] 所有権:メタタグで確認済み(URLプレフィックス)
  • [ ] 記事:<!-- more -->/TL;DR/内部リンク3本以上
  • [ ] メタ:タイトル≤32字/説明120–160字/OG画像1200×630
  • [ ] テーマ:robots/OG/Canonicalが1セットで重複なし
  • [ ] サイトマップ:/sitemap.xml/atom.xml?...max-results=500 送信済み
  • [ ] 外部可視性:r.jina.aiで本文取得OK
  • [ ] URL検査:ライブテスト→登録リクエスト済み

Q&A

Q. ライブテストは「取得可」なのに、登録が進みません。

A. まずはメタ/robots/canonicalの重複と薄コンテンツを確認。更新後に再リクエスト。

Q. サイトマップはどちらを使えばよい?

A. 両方送って問題ありません。/sitemap.xml は自動、atom.xml はフィード全件の網羅性が上がります。

Q. ステータスが「204」など正常に見えない時は?

A. 本文の静的化(HTMLとして本文が直接ある状態)を優先。不要スクリプトや余計なリダイレクトを削除。

まとめ

所有権→URL検査→サイトマップ→拒否原因の切り分けを型にすると、再現性が上がります。 テーマの重複タグを1セットにし、内部リンクでハブ⇄クラスターの往復導線を敷くことが、発見性と回遊を同時に高めます。

Bloggerインデックス完全ガイド(Search Console編)

コメント

このブログの人気の投稿

2025年無料家計簿アプリ3選!マネーフォワード ME、シンプル家計簿、Zaimを比較。節約&ガジェット好きに最適。