Bloggerインデックス完全ガイド(Search Console編)
記事を公開しても検索に出ない。ライブテストは通るのに登録が進まない──そんな時に必要なのは、手順の抜けを潰し、拒否原因を順番に切り分けることです。本ガイドは Search Consoleを軸に、所有権確認→URL検査→サイトマップ送信→原因特定までを一気通貫で解説します。
TL;DR(150字)
1) 所有権をメタタグで確実に通す → 2) 記事ごとにURL検査→ライブテスト→登録リクエスト →
3) /sitemap.xml と atom.xml を送信 →
4) 拒否は「noindex/robots/重複/参照不可/薄い」の順で切り分け。外部可視性も同時確認。
前提と用語(さくっと)
- インデックス:検索に載るための登録状態。
- URL検査:個別URLの状態確認とライブテスト→登録リクエスト実行。
- サイトマップ:サイトのURL一覧を知らせるフィード。Bloggerは
/sitemap.xmlとatom.xmlの併用が有効。
Step 1|Search Consoleの所有権確認(メタタグ)
プロパティは URLプレフィックス を推奨(対象が https://smartlifebit.blogspot.com/ など明確だから)。
- Search Consoleで対象URLを追加→HTMLタグを選択し、メタタグをコピー。
- Blogger → テーマ > HTMLを編集 を開き、
</head>直前に貼り付けて保存。 - Search Consoleに戻り「確認」。
<meta name="google-site-verification" content="xxxxxxxxxxxxxxxxxxxx" />
テーマに既存の検証タグやOG/robotsが複数あれば、後述の「重複を1セットに統一」を参照。
Step 2|記事ごとの URL検査 → ライブテスト → 登録リクエスト
- Search Consoleの検索窓に記事URLを貼付。
- ライブテストを実行(レンダリング可否の確認)。
- インデックス登録をリクエストをクリック。
同じURLを短時間で連投せず、更新があった時のみ再リクエストが基本。
Step 3|サイトマップ送信(2系統)
https://smartlifebit.blogspot.com/sitemap.xml(Bloggerの自動サイトマップ)https://smartlifebit.blogspot.com/atom.xml?redirect=false&start-index=1&max-results=500(フィード全件)
送信後は「取得日時」と「検出されたURL」を確認。エラー時はURLの到達性とHTTPコード(200以外が混在しないか) をまずチェックします。
よくある拒否原因と対処(トップ5)
| 現象 | 主因 | 確認ポイント | 対処の要旨 |
|---|---|---|---|
| 「ページにリダイレクトがあります」や重複扱い | canonical/URLの不整合 | <link rel="canonical"> がその記事URLか |
canonicalを実URLに統一。短縮や別URLへの自動遷移を避ける。 |
| 「noindex」関連で除外 | メタ/HTTPヘッダにnoindex |
テーマ内やウィジェットでの重複挿入 | 該当箇所を削除。index,followで1セット化。 |
| robotsでクロール不可 | Disallowの誤指定 |
/search以外を塞いでいないか |
既定はDisallow: /searchのみ。余計なブロックを外す。 |
| 「参照不可」や本文取得不能 | 204/4xx/JS依存で本文なし | 外部可視性でテキストが出るか | 静的HTMLに本文を確保。画像遅延やスクリプト依存を減らす。 |
| 薄い/重複コンテンツ扱い | 本文が短い・重複・付加価値不足 | 語数・独自要素・内部リンク | 事例/比較/数字を加筆。関連3本以上の内部リンクを追加。 |
必要最小のメタ例(記事ページ)
<meta name="robots" content="index,follow">
<link rel="canonical" href="【記事の正規URL】">
外部可視性の簡易チェック(本文が取得できるか)
下のURLに対象記事URLをはめ込んでブラウザで開き、本文テキストが見えれば最低限の到達性はOK。
https://r.jina.ai/http://【記事URL】
テキストが出ない/明らかに短い場合は、204/4xxやJS依存を疑い、本文の静的化や画像の遅延設定を見直します。
テーマ内の重複OG/robotsを「1セット」に統一する
OG/Twitterカードやrobots系が重複すると解釈が不安定になります。必要最小に絞るのが安全です。
OG/Twitter(最小セット)
<meta property="og:title" content="【記事タイトル】">
<meta property="og:description" content="【120–160字の要約】">
<meta property="og:type" content="article">
<meta property="og:url" content="【記事URL】">
<meta property="og:image" content="【1200x630画像URL】">
<meta name="twitter:card" content="summary_large_image">
再試行の間隔と実務運用
- 同じURLへの登録リクエストは更新時のみ、数日〜1週間あけて再申請。
- 公開ごと:URL検査→ライブテスト→登録リクエスト→サイトマップ確認をルーチン化。
- 週次:クエリと内部リンクの見直し(ハブ⇄クラスターの往復導線)。
チェックリスト(コピペ運用用)
- [ ] 所有権:メタタグで確認済み(URLプレフィックス)
- [ ] 記事:
<!-- more -->/TL;DR/内部リンク3本以上 - [ ] メタ:タイトル≤32字/説明120–160字/OG画像1200×630
- [ ] テーマ:robots/OG/Canonicalが1セットで重複なし
- [ ] サイトマップ:
/sitemap.xmlと/atom.xml?...max-results=500送信済み - [ ] 外部可視性:
r.jina.aiで本文取得OK - [ ] URL検査:ライブテスト→登録リクエスト済み
Q&A
Q. ライブテストは「取得可」なのに、登録が進みません。
A. まずはメタ/robots/canonicalの重複と薄コンテンツを確認。更新後に再リクエスト。
Q. サイトマップはどちらを使えばよい?
A. 両方送って問題ありません。/sitemap.xml は自動、atom.xml はフィード全件の網羅性が上がります。
Q. ステータスが「204」など正常に見えない時は?
A. 本文の静的化(HTMLとして本文が直接ある状態)を優先。不要スクリプトや余計なリダイレクトを削除。
まとめ
所有権→URL検査→サイトマップ→拒否原因の切り分けを型にすると、再現性が上がります。 テーマの重複タグを1セットにし、内部リンクでハブ⇄クラスターの往復導線を敷くことが、発見性と回遊を同時に高めます。
コメント
コメントを投稿